對於數據貯存量、提取及計算速度而設計的不同算法和表現法。然而算法 (algorithms) 的不同,那是有史以來一直這樣的,不是嗎?比如SAS 有它的一套 computation 的路數,IBM 也有它自己的,SAP 就更不用說了。你也可以有自己的一套模型對付常規問題。
還要說 Computation 有什麽不同,可能也就是過去由於計算速度而提取的 sample data 有限(計算速度,估計從來就不是個問題,因為有相對性),而現在的 sample data 可以一下提取很大,提高了“窺測”insights 的準確性。
還有一個可能的不同,就又要怪老印了。估計就是因為老印沒有工程頭腦,就一股腦兒地把分析和結果之間的所有對數據的邏輯分類模型和計算,等等步續全都給省去了,然後就發明一個“大數據”來忽悠蒙混大家。
看看是誰在鼓吹 “大數據”就知道了。不是有勢力的老印自己,就是跟老印關係密切的老白!
你又被忽悠了。所謂 computation 的方式不同,其實就是基於硬件
所有跟帖:
• 謝謝分享!我不是IT人士,但據我了解,在用SAS從大數據裏(TB級別的)提取符合條件的數據,常常要耗上幾個小時,更別提model -wolikeyou- ♀ (306 bytes) () 03/31/2015 postreply 11:30:17
• SAS,以及 IBM 的類似產品,還有 SAP,上層表麵的東西搞得太多了。這是個主要原因。 -拉兄弟一把- ♂ (1506 bytes) () 03/31/2015 postreply 12:42:36
• 嗬嗬,我們老板要我搞hadoop,剛開始我就覺得不樂觀,結果搞了3年,也沒有搞成,現在還是 用PC機處理數據 -wolikeyou- ♀ (1532 bytes) () 03/31/2015 postreply 19:53:44