Алгоритъмът, чието създаване е отнело две години, може да сортира, съпоставя и анализира милиони безразборни пакети от данни - задача, чието изпълнение отнема на суперкомпютрите дни, казва Костас Бекас, изследовател в IBM. Той представлява код, заемащ почти 1000 реда и ще се използва като инструмент за установяване на тенденции в потреблението на базата на информация, събирана от източници, като сензори и „умни" измервателни уреди.

Новият алгоритъм може да влезе в употреба при анализирането на обемни данни за потреблението на електроенергия или за нивата на замърсяване на водните басейни, както и за обработването на данни от глобалните финансови пазари и за преценяването на индивидуалното и колективното излагане на риск. Методът може да спомогне и за намаляването на енергийните разходи.

Изследователите са използвали системата Blue Gene/P Solution в немския център за изследвания Forschungszentrum Julich, за да анализират 9TB данни за по-малко от 20 мин. Обработването на това количество информация без алгоритъма би отнело един ден на суперкомпютър, разботещ на пълна мощност, което би се отразило на сметката за електроенергия. Според Top500.org, Blue Gene/P е четвъртият най-бърз суперкомпютър в света с 294,912 IBM Power ядра и може да предостави максимално 1 петафлоп.

"Интересува ни измерването на качеството на информацията", казва Бекас. Ефективното анализиране на големи масиви от данни изисква нови математически техники, които намаляват изчислителната сложност, добавя той. След като алгоритъмът се доказал в научните среди, от лабораторията вече работят с Global Services на IBM, за да го използват за специфични услуги, според Бекас.

В крайна сметка е възможно методът да достигне до приложенията на компанията, като софтуера за статистически анализи SPSS, но все още няма конкретни времеви граници за това.