美文网首页
Spark过大数据量分组排序,内存不足

Spark过大数据量分组排序,内存不足

作者: 相关知情人士 | 来源:发表于2017-04-06 17:27 被阅读0次

需求 :

  • 假定超大数据量的商品,需要根据其价格在其类目或全类目进行排序求前1000,但是内存不足

需求拆解 :

  • 先算出特定类目的前1000,再进行全类目的分组比较排序

备注 :

  • 不要使用Spark自带的GroupByKey,要自己实现CombineByKey
  • 实现CombinedByKey的时候需要在每次MergeValue 和 MergeCombiner的时候做好排序,限定前1000(即限定Combiner的大小)
  • 这样就可以避免内存不足的问题,同时可以先得到单独类目的前1000
  • 最后再进行全类目多条件组合的分组比较排序即可

相关文章

网友评论

      本文标题:Spark过大数据量分组排序,内存不足

      本文链接:https://www.haomeiwen.com/subject/iypqattx.html