LSI总裁兼CEO Abhi Talwalkar:大数据洪流引爆数据中心革命

我们可以考虑一下数据流。首先需要捕获这些数据流里面的数据,数据流可以来自不同的设备,必须通过某些方式进行获取,并且存储起来,而且存储的数据中心也是超大的,可能有10万台服务器或者是100万个硬盘。当然,有些数据是放在比较少的几个数据服务器上,但这几个数据服务器的性能是非常强大的,这主要是跟数据的复杂性以及数据的数量有关。我们要根据数据的特性来搭建这种数据流的架构。当然,这主要取决于数据分析的需求,比如你是想实时的进行数据分析,还是不进行实时分析。

首先是智能网络的使用,我们现在必须认识到捕获的数据越来越多,需要对数据进行评判,这个数据的重要性是怎样的,有的时候需要评判这个数据的价值是多少。在网络上,随着数据流的流入就能够判断这个数据的类型。这就意味着我们需要更多的智能网络,以便对数据进行实时的判断。

同时,我们还需要处理各种不同的数据格式。在这个方面,其他的公司也在研究这个方面的问题。我们LSI开发了一种多核处理器,除了多核处理器以外,我们还提供了具备处理功能的硬件,这个硬件能够评判这个数据到底是什么样的格式,比如它是不是视频数据,以及这个数据是要实时应用,还是这个数据只是支持视频聊天的数据类型。也就是说这个硬件是智能的,将经过认证的数据分成若干类型进行实时分类,并且进行初步的智能判断。在接下来的两到三年,两个比较大的网络公司就会采用我们这种技术。所以我也相信通过智能硬件的使用,网络流量会降低50%,大大节省带宽。

还有一点是关于灵活性。我们处理的数据量非常大,而且是存储在非常大的数据中心当中,其中有特别多的硬盘,硬盘损坏是了不得的事情,我们必须使这个硬盘的复原性非常好。现在数据中心头疼的问题就是希望保证一定量的硬盘在工作的状态,而且也不希望它们的性能受到任何影响。

我们今天是使用一种特殊的存储技术,我们可以对数据进行定位,了解到它存在哪个服务器当中。但是,传统的方式是依靠存储的物理位置。现在,我们需要通过一个机架服务器将分布在不同服务器上的数据进行整合,这样就可以提高数据的备份能力。