728x90
spark submit을 하면 spark와 관련된 로그들을 확인할 수 있다.
이 때 너무 많은 로그가 나온다면 필요한 로그를 확인할 수 없다.
보통 정상적으로 수행하고 있는 코드라면 경고, 에러인 데이터만 확인하면 될 것이다.
이럴 때는 아래와 같은 코드를 pyspark 코드 상단에 추가하면 원하는 수준의 로그를 확인할 수 있다.
from pyspark.sql import SparkSession
spark = SparkSession.builder.\
master('xxx').\
appName('xxx').\
getOrCreate()
spark.sparkContext.setLogLevel('WARN')
위에서 보여줄 로그의 수준은 아래 유형중에 선택하면 된다.
ALL, DEBUG, ERROR, FATAL, INFO, OFF, TRACE, WARN
너무 많은 로그가 나온다고 생각한다면 WARN, ERROR 정도로 변경하면 된다.
참고
spark.apache.org/docs/2.3.0/api/java/org/apache/spark/SparkContext.html
728x90
'빅데이터(BigData) > Spark' 카테고리의 다른 글
pyspark에서 비어있는 DataFrame 만들기 (0) | 2021.04.28 |
---|---|
pyspark에서 agg에서 multiple columns 사용하기 (0) | 2021.04.13 |
spark에서 parquet 파일 데이터 조회하기 (0) | 2021.03.24 |
toPandas() 후 조회 시 index 2 is out of bounds for axis 0 with size 에러가 발생할 때 (0) | 2021.03.16 |
Koalas에서 Cannot combine the series or dataframe because it comes from a different dataframe 에러 발생 시 (0) | 2021.03.15 |