国产成人精品18p,天天干成人网,无码专区狠狠躁天天躁,美女脱精光隐私扒开免费观看

Hadoop和spark的性能比較

發(fā)布時(shí)間:2021-09-14 11:25 來(lái)源:億速云 閱讀:0 作者:chen 欄目: 網(wǎng)絡(luò )安全

本篇內容主要講解“Hadoop和spark的性能比較”,感興趣的朋友不妨來(lái)看看。本文介紹的方法操作簡(jiǎn)單快捷,實(shí)用性強。下面就讓小編來(lái)帶大家學(xué)習“Hadoop和spark的性能比較”吧!

  Hadoop和spark的性能比較

  Spark在內存中運行速度比Hadoop快100倍,在磁盤(pán)上運行速度快10倍。眾所周知,Spark在數量只有十分之一的機器上,對100TB數據進(jìn)行排序的速度比Hadoop MapReduce快3倍。此外,Spark在機器學(xué)習應用中的速度同樣更快,例如Naive Bayes和k-means。

  由處理速度衡量的Spark性能之所以比Hadoop更優(yōu),原因如下:

  1、每次運行MapReduce任務(wù)時(shí),Spark都不會(huì )受到輸入輸出的限制。事實(shí)證明,應用程序的速度要快得多。

  2、Spark的DAG可以在各個(gè)步驟之間進(jìn)行優(yōu)化。Hadoop在MapReduce步驟之間沒(méi)有任何周期性連接,這意味著(zhù)在該級別不會(huì )發(fā)生性能調整。

  但是,如果Spark與其他共享服務(wù)在YARN上運行,則性能可能會(huì )降低并導致RAM開(kāi)銷(xiāo)內存泄漏。出于這個(gè)原因,如果用戶(hù)有批處理的訴求,Hadoop被認為是更高效的系統。

免責聲明:本站發(fā)布的內容(圖片、視頻和文字)以原創(chuàng )、來(lái)自互聯(lián)網(wǎng)轉載和分享為主,文章觀(guān)點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權請聯(lián)系QQ:712375056 進(jìn)行舉報,并提供相關(guān)證據,一經(jīng)查實(shí),將立刻刪除涉嫌侵權內容。

一区二区三区国产最好的精华液| 免费无码一区二区三区蜜桃| 亚洲成人色| 欧美视频二区欧美影视| 久久久久国产一区二区| 国产专区国产AV|