Наука или индустрия | Култура – Брой 23 (3033), 16 юни 2017

Четох преди време едно изследване, което сравняваше ефекта на технологията „големи данни“ върху нашия човешки свят с ефекта на природно бедствие. Даже нещо повече: изобретявайки тази нова технология, ние едва ли не сме си произвели нов Бог със свой Пантеон и жреци, на които да служим и от чиито прищевки да зависим.
Откъде този фатализъм по отношение на големите данни? Тъй като очевидно става дума за количество, ще ви занимая малко с приложна математика и по-точно – суниверсалното допускане в традиционните количествени анализи, че ‘N = All’, тоест, обозначавайки с „N на брой“ някакво безкрайно количество от нещо си, ние подразбираме „всичко“, всички членове на дадена популация/общност/население на една страна, да речем. Поне оттам тръгват изтъкнатите изследователи на големите данни Mayer-Schönberger и Cukier. Дори и да не сме запознати с техните изследвания, ако сме учили статистика, знаем, че за да разкрием закономерностите, по които се развива една популация, не можем да изследваме цялата популация, а само представителна извадка от нея; и от резултатите, които получим, екстраполираме резултат за цялата популация с известна, макар и допустима неточност. Съвременната изчислителна мощ обаче и технологията на Големите Данни позволяват да правим количествен анализ на цялата популация, т.е. ‘N = Аll’, оттам и допускането, че неточността и несигурността са елиминирани.
Има обаче една малка подробност – колкото и голямо количество данни да е в състояние да обработи съвременната техника, самият живот няма как да се транслира в дискретен, машинно четим, количествено измерим, лесен за манипулиране поток от битове и байтове. Просто по-големите Данни не са по-добри Данни. А когато машините превръщат този шум в „знания“, извличат от него „патерн“ посредством изчислителни методи и правят изводи въз основа на този „патерни“, резултатът е съмнителен и специалистите го наричат „data дериватив“ (от “derivatives“ – “производни“). Бъдеще, моделирано въз основа на Data деривативи, как ви се вижда това? Зле, нали? Просто N никога няма да стане All!
Доскоро вярата в големите данни бе наистина голяма. Майкъл Флауерс, бившият главен аналитик на Ню Йорк и автор на концепцията за „data driven city“, пише в книгата си „Отвъд прозрачността: Отворените данни и бъдещето на гражданските инновации“ (2013): “Мен не ме интересуват причинно-следствените връзки освен тези, които показват какво да се прави“.
Според него, причинно-следствената връзка е нещо много рисковано… Самото говорене за причинност е нещо рисковано. Има твърде много реални проблеми, които се налага да се решават в реално време, че градските власти да могат да си позволят лукса да се отдават на абстрактни разсъждения и теории относно причинността. Пък и законността, като се замислите…
И Тим О’Райли (Tim O’Reilly), друг един виден корпоративен мъдрец, си бе поставил за цел чрез обратната връзка, идваща от въоръжените с „гаджети“ потребители, да се бори с ригидността на правилата, спускани от откъснатите от живота политици.
Е, след като вече няма време за абстрактни размисли и след като знаем как технологията Big Data „решава“ проблеми, нормално е да се запитаме за чисто епистемологичния резултат от абсолютизирането на Big Data – бързината, с която се извличат патерни от произволно голямо количество data-шлака, просто изсмуква живота от всеки опит за търсене на причинност. В самото навечерие на Big Data бума, през 2008-а, Крис Андерсън (Chris Anderson) писа по този повод статия за Wired Magazine, многозначително озаглавена „Краят на теорията“, но краят очевидно е далеч. Напоследък все по-често се говори за проблема на големите данни, а именно, че информацията е прекалено много, а талантите, които да се справят с нея – прекалено малко. Проблем, който може да бъде решен с академични програми, от които да излязат повече и по-добре обучени специалисти, ще кажете. Може би да, но по-скоро не. В случая се е заложило на повече и по-добре обучени… компютри. Точно така, на сцената излиза нова технология, така нареченият когнитивен компютинг – нов хардуер и/или софтуер, имитиращ работата на човешкия мозък и човешката работа по вземането на решения, а вероятно и свързаните с това човешки дилеми.

 

Вашият коментар

Вашият имейл адрес няма да бъде публикуван.