Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 플라스틱은 어떻게 브랜드의 무기가 되는가
- 마법의연금굴리기
- neovim
- 트럼프2.0시대
- 가람집옹심이
- 이코노미스트한국구독센터
- 중사랑
- deepseek
- 달리기
- Zone2
- 강릉여행
- 마연굴
- 티지아이포럼
- 저동하녹
- parquet
- 잘쉬어야지
- apollo-server-v3
- 송고버섯피자
- 런데이
- 여니브레드
- apollo-sandbox
- 런데이애플워치
- 여행
- 한국걱정
- kafka-connect
- 루스틱
- sparksql
- 오운완
- schema-registry
- 일권하는사회
Archives
- Today
- Total
목록kafka-connect (1)
해뜨기전에자자
Spark SQL로, Hive parquet 접근 시 필드명이 parquet schema와 다르게 잡힐 때..
문제 며칠 전 spark SQL로 조회하던 parquet 파일 베이스의 hive external table의 필드 schema의 대소문자가 꼬여 문제가 생겼던 적이 있다. 어떤 field는 대소문자를 구분했고, 어떤 필드는 소문자로만 보였다. case-sensitive와 case-insesitive가 섞인 mixed-case 의 형태를 보인 것이다. spark.sql('FROM tbl').printSchema() root |-- isValid: string (nullable = true) # 대소문자를 구분한다 |-- requestid: string (nullable = true) # parquet schema상으로는 reqeustId이지만, 소문자로만 조회가 된다. ..개발 및 테스트 과..
개발/spark
2020. 11. 19. 19:30