SAP 고객 데이터 클라우드-구성품 안내
페이지 정보
본문
데이터 소스
데이터 소스 구성 요소는 데이터 플랫폼에서 데이터를 추출하거나 데이터를 업로드하는 작업을 수행합니다.
- datasource.read 구성 요소는 플랫폼에서 데이터를 추출합니다. 모든 데이터 흐름은 이러한 구성 요소 중 하나에서 시작됩니다. FTP, Azure, Amazon 등에서 파일을 읽는 구성 요소의 경우 이 파일의 최대 크기는 2GB입니다.
- datasource.write 구성 요소는 대상 플랫폼에 데이터를 업로드합니다. 이는 일반적으로 데이터 흐름의 마지막 단계입니다. 기록기 뒤에는 실패한 레코드를 캡처하는 "오류" 커넥터가 올 수 있습니다.
- datasource.lookup 구성요소는 다른 데이터 소스의 필드를 기반으로 플랫폼에서 데이터를 추출합니다.
- datasource.delete 구성 요소는 대상 플랫폼에서 정보(예: 사용자 레코드)를 삭제합니다.
메모
쓸 수 있는 최대 파일 크기는 5GB이며 작업당 총 최대 크기는 50GB입니다.
총 파일 크기가 50GB를 초과하는 경우 다음 중 하나를 수행하여 수정할 수 있습니다(제한된 제안 목록임).
- Datasource.read.gigya.account 구성요소에서 maxConcurrency 값을 줄이십시오 .
- file.format.json 구성 요소에서 maxFileSize 값을 줄 입니다.
- 관련 이전 단계에서 where 매개변수를 사용하여 작업을 더 작은 작업으로 분할합니다 .
주의
IdentitySync 작업은 UTC 시간으로 예약됩니다. 따라서 파일 요청이 제대로 처리되도록 흐름에 참여하는 플랫폼을 UTC 시간대로 설정해야 합니다.
- 이전글SAP 고객 데이터 클라우드-IdentitySync 변경 로그 22.12.06
- 다음글SAP 고객 데이터 클라우드-구성 요소 저장소 22.12.06