插入6千萬行數據進入一個表,Cassandra需2小時,同樣條件插入MYSQL需要36小時,完全不是一個級別的.
所有跟帖:
• 大數據真的隻適用於新型的應用,TB級的數據,用戶在線等結果。Relational DB沒法承擔。Spark很好 -easycity- ♂ (267 bytes) () 11/20/2014 postreply 20:53:43
• 在SPARK麵前,HADOOP的MR太繁雜,效率太低,遠比上SPARK的線程操作。 -望鄉- ♀ (0 bytes) () 11/20/2014 postreply 21:01:07
• Spark比MapReduce快30到100倍。伯克利的作者成了MIT教授。推薦他的博士論文,寫得太棒了 -easycity- ♂ (74 bytes) () 11/20/2014 postreply 21:08:18
• 這是真正的大牛之一。在美華人不要多提印度人,有雄心就照著Spark作者Zaharia去幹。 -easycity- ♂ (0 bytes) () 11/20/2014 postreply 21:10:14
• 對!羅馬尼亞的加拿大籍小夥子,相當牛,老中應該學習之。 -望鄉- ♀ (0 bytes) () 11/20/2014 postreply 21:20:32
• 2小時vs36小時,不可完成的使命 -85858585- ♀ (0 bytes) () 11/25/2014 postreply 23:54:35