Spark首次由Databricks發布,融資3300萬美元;Hadoop再次得到MapR的1.1億美元的融資,以促進其在激烈市場競爭中的成長。在未來的大數據處理中,Spark將會簡化現有的數據管道處理,融合多種功能,使得數據處理更快、更方便和更靈活;Hadoop也將會以更快、更簡單的方式讀寫大數據。巨大的融資金額將會促進Spark和Hadoop的大力發展,它們將以怎樣的姿態立足未來的大數據市場呢,是并駕齊驅?還是獨占鰲頭?讓我們拭目以待。
Databricks發布Spark,融資3300萬美元
近日,Databricks在Spark峰會上發布了Spark云服務,同時籌集了3300萬美元的風險資金。公司新發布的Spark云服務采用的是Spark框架,據說此框架更快、更方便和更靈活,其云服務的設計有助于簡化現有的數據管道處理,包含了大量需要企業管理的數據存儲和數據處理系統,同時將諸多供能(如為了建立和顯示機器學習模型的各種處理引擎、“記事本”和儀表板功能等)進行有效的融合。
Hadoop的供應商MapR考慮到在MapReduce的技術和生態系統上投入的大量資金和人力資源,對Spark目前的應用有所遲疑,但仍支持此處理框架,并且認為它讀寫大數據的方式會比MapReduce更快、更簡單。
MapR再融資1.1億美元推動Hadoop成長
與此同時,MapR也籌集了1.1億美元推動Hadoop的發展。公司的CEO肯定了公司在專有工具上的優勢,為顧客在組件提供了更多的選擇:MapR支持少數的SQL-on-Hadoop工具,包括Hive和Drill,同時也支持Cloudera-developed Impala 和惠普的Vertica software。
此次MapR在Hadoop領域的融資力度明顯加強,融資總額超過之前的總額5900萬美元。當然,對于Hadoop的融資,Cloudera的5輪融資高達3億美元,Hortonwork從創立之初到2013年的3年內融資金額就達到了1.98億美元。
Spark和Hadoop將走向何方
在激烈的市場競爭中,Spark和Hadoop的未來發展還處于或多或少的爭議中。
Spark服務的數據默認存儲在亞馬遜S3中,如果使用者擁有已經在AWS上正常運行的Hadoop集群,也可以將數據存儲在HDFS中。Databricks可以從MongoDB、MySQL和亞馬遜Redshift讀進數據,也可以導出數據。公司有望支持混合cloud-local Spark環境,放在完全開放的Spark云中,能夠有效實現工作負載的可移植性。
Hadoop的融資企業MapR選擇了Google作為其合作伙伴之一,他們的走向代表了大數據的未來。Hadoop供應商競爭者也面臨著巨大的競爭挑戰。
Spark和Hadoop作為有效的數據處理框架,各自具有明顯的優勢,作為使用者,更快、更方便的解決自身所需也許是他們進行選擇的因素之一,各融資者應加強各自服務應用的功能,更好地服務于客戶,才能帶來可觀的市場利潤。
參考文獻:
Databricks announces a Spark cloud and $33M in venture capital(Databricks announces a Spark cloud and $33M in venture capital)
MapR raises $110M to fuel its enterprise Hadoop push(http://gigaom.com/2014/06/30/mapr-raises-110m-to-fuel-its-enterprise-hadoop-push/)
Hortonworks再獲1億美元融資,Hadoop領域三足鼎立(http://www.csdn.net/article/2014-03-25/2818970-three-hadoop-famous-startups)
Cloudera首席戰略官:取代MapReduce 未來會加大Spark等框架投入(http://www.csdn.net/article/2014-05-05/2819604-BigData-MapReduce-Spark)
大數據計算新貴Spark在騰訊雅虎優酷成功應用解析(http://www.csdn.net/article/2014-06-05/2820089)