from pyspark import SparkContext, SparkConf
from pyspark.sql import SQLContextsc = SparkContext("local", "Simple App")sqlContext = SQLContext(sc)url = \
  "jdbc:mysql://localhost:3306/stock_data?user=root&password=test"df = sqlContext \
  .read \
  .format("jdbc") \
  .option("url", url) \
  .option("dbtable", "stock_detail_collect") \
  .load()df.printSchema()counts = df.groupBy("stock_id").count()
counts.show()===========
怎么数据表只有1153194条记录,怎么运行以上代码就内存泄露:
16/02/05 23:30:28 WARN TaskMemoryManager: leak 8.3 MB memory from org.apache.spark.unsafe.map.BytesToBytesMap@431395b1
16/02/05 23:30:28 ERROR Executor: Managed memory leak detected; size = 8650752 bytes, TID = 1
环境:spark-1.6.0-bin-hadoop2.6
Ubuntu 14.04.3 LTS
jdk1.8.0_66
不知问题在哪?怎么破,非常感谢