„Serendipity” | K-48-2019

В своя труд „Париж и струпването на парижани” Шомбер дьо Лов чертае диаграма на придвижванията през града в течение на година на една студентка, живееща в 16-и район. Маршрутът на студентката образува малък триъгълник, по върховете на който се намират „школата по политически науки – домът – учителят по музика”. Това онагледява трогателната ограниченост на живота, който водят много парижани тогава, но защо напомням това? Защото и тук, сега и навсякъде, даже в мрежата, поведението на повечето от нас е подобно. Дотолкова, че се появиха куп приложения от рода на Scribble (бившият Trapit): GetGlue (сега tvtag), Hunch, Rapleaf, а и куп нови странни професии, цяла индустрия, чиято концепция се крепи на магичната дума “serendipity” – да покажеш на хората това, което те дори не са очаквали, че съществува, но го желаят.

Момент! Това ли значи „serendipity” наистина? Това ли е значението, което е вложил в думата през 1754 г. нейният изобретател, Хорас Уолпоул? Способността да се откриват „случайно интересни и ценни неща” равносилно ли е на това да привлечеш вниманието на група потребители към капана на персонализираното съдържание и да ги накараш да купят нещо? Ерик Шмид, бившият изпълнителен директор на Google, нарече търсачката “Serendipity машина” (нещо, което и Facebook дублира с неговите алгоритми за „социална релевантност”, базирани на т.нар. „човешки диаграми”, изобразяващи нагледно кой кого познава, за какво гласува, какво купува, чете, гледа, слуша или отминава. Много скоро ние, потребителите, започнахме да се боим, че машините са точно обратното – окупират битието ни, ограничават свободите ни, манипулират изборите ни, едва ли не се намесват в химията на мозъка ни, за да влияят на възприятията и предпочитанията ни. Това, че правим „открития”, затворени в балона на персонализираното търсене, на филтрираното web съдържание, е като да се помогне на студентката на дьо Лов да открие някой нов мол или питейно заведение, или каквито там е било типично за лайфстайла на 50-те в Париж.

Как заедно работят случайността и персонализацията на интернет и дотолкова ли е естествено това, че живеем в система, разчитаща на технологии и алгоритми за създаване по алгоритмичен път на случайност, дигитално просветление и нирвана? Това звучи комично и оксиморонно, но така се получава в действителност. Феноменът се изследва усилено откак изобщо се е появил – и в академичните среди, и в бизнес средите, дори от компаниите, обвинявани в манипулативност. И проблемът е не само в комерсиализацията на социалните мрежи, но и във фрагментирането на социума, изпълването му с мехурчетата на т. нар. „разделена демокрация”. Проблемът е дори епистемологичен. „Филтър балон” го нарече Илай Парайзер още през 2011 – интелектуалната изолация, в която се озоваваме благодарение на това, че алгоритми ни предлагат „подходящо” съдържание въз основа на информация, която са събрали за нас самите в нещо като електронно досие. 2017-та даже бе обявена за „година на филтър-балона” в чест на параноята, обхванала света след президентските избори в САЩ и след осъзнаване на факта, че социалните медии са в състояние да оформят реалността ни.

И все пак, струва ли си да обвиняваме за всичко алгоритмите? Забелязваме ли собствената си интелектуална леност и нежелание да излизаме извън зоната си на комфорт, за да предизвикваме и да си позволяваме да бъдем предизвикани, да общуваме? Някои от нас, по-малко ленивите и страхливите, вече си имат стратегия за неутрализиране на филтрите. Единият от начините е да се откажем от персонализираното, „оптимизирано изживяване” – от филтрите. Всеки добър браузър предоставя тази възможност, ограничавайки с това информацията, събирана за нас. Другият начин е да добавяме в социалния си кръг потенциални опоненти – хора с различни от нашите политически виждания и интелектуален бекграунд. Това обърква алгоритмите. Нещо аналогично е и при търсенето в мрежата: колкото по-сложни, непредвидими и изтънчени са вкусовете и интересите ви, толкова по-затруднени ще са алгоритмите, съставящи досието ви и стремящи се да ви напъхат в някой „човешки граф”, да ви ограничат изкуствено и да ви впрегнат в тази нова, платформена „икономика на надзора”.

„Правдиво и балансирано“ | K-23-2019

През 1949 Федералната комисия по комуникациите в САЩ започва да прилага т.нар. „Доктрина за справедливост“, според която притежателите на лиценз за медийно излъчване са длъжни да представят важните събития “правдиво и балансирано”, т.е. без да клонят към една или друга политическа сила.

През 1987 Рейгън налага вето на доктрината – тя не се вписва в новия (либерален) дневен ред. И докато после се правят някакви опити за възраждането й, започват да изникват и нови медии, още по-трудни за регулиране, още по-лесни за манипулиране, още по-масови – медиите в web.

Миналата седмица припомних WelFargo и Gambridge Analitica скандала и как Facebook работи за републиканците в САЩ. В духа на тази старомодна доктрина ми се ще сега да припомня и начина, по който Google работи за демократите.

Със специалното изследване на феномена Google се занимава д-р Робърт Епщайн, психолог бихейвиорист и експерт по търсачките от Американския институт за поведенчески изследвания и технологии (American Institute for Behavioral Research and Technology – AIBRT). В едно свое проучване от 2016 г. той доказва, че голям процент от гласовете за Хилари Клинтън на президентските избори са дошли от нерешителния електорат, който е прибегнал до океана от ресурси, индексирани в Google, и се е  задоволил с това, което Google им е предложил първо като най-релевантно.

Епщайн нарича това Ефект на манипулативните търсачки (Search Engine Manipulation Effect – SEME). Хората дори не подозират, че са манипулирани, а това е последното, което биха искали преди избори. Изпълнителните директори на Google, разбира се, отричат. Отричат и демократите. И как иначе!

Наскоро станаха известни резултатите и от едно по-ново изследване на Епщайн за три ключови надпревари за Конгреса в Южна Калифорния на изборите през 2018. Тези резултати са силно приблизителни заради допускането на Епщайн, че гласувалите са извършвали едно търсене седмично, докато в действителност свързаните с изборите търсения в Google са били четири-пет дневно, което значи и многократно по-голям процент за демократите. Епщайн е пренебрегнал и класифицирането на източниците в Google по нивото им на пристрастност. Така, както откровено консервативни източници като „Breitbart News” са класифицирани за силно пристрастни, така привидно центристките като „New York Times” са всъщност силно либерални, без да са в класацията. Дори Wikipedia, която минава за аполитична, се оказва окупирана от неолиберални редактори и това се отразява на съдържанието на ключови статии в нея, без някой да го отчита.

От своя страна, самият Епщайн дори не е републиканец и публично е подкрепял Хилъри Клинтън през 2016 г., но демократите и либералите го клеймят като привърженик на конспиративните теории и ренегат заради колаборацията с Брайтбарт.

Дори и с тези допускания обаче, изчисленията на Епщайн показват значителното влияние на Google и по-точно на SEME върху изборния резултат. Може би заради малкия и лесно преодолим марж, с който напоследък се печелят избори в САЩ.

Каквото и да се твърди за релевантността на Google, официалната реакция е винаги една и съща: “доставянето на релевантни отговори е крайъгълен камък на подхода“ и „ако компанията промени своя курс в това отношение, това би подкопало доверието в нея“.

Всъщност, има поне 3 сценария, по които това подкопаване да се случи.

Сценарий тип „Western Union“: 19-ият президент на САЩ, Ръдърфорд Хейс, бе възкачен на престола през 1877 от комуникационния монопол Western Union и тази технологично гарантирана победа осигури после на Western Union съответната протекция.

Сценарий „Мариус Милнър“: нелоялен служител върти зад гърба на Google схеми със свой приятел, който пък участва в кампанията на някой политик. Ако помните, преди време Милнър (уж) беше този, който изложи Google пред 30 държави, злоупотребявайки с Google Street View колите, без (уж) Google да знае за това.

И третият сценарий, най-финият – алгоритмичният. В този сценарий никой, освен алгоритъмът, не е виновен, ако даден кандидат излиза все напред в търсачката и непрекъснато ви боде очите.

Просто Google са наистина много добри в това, което правят. Най-добрите!

Б.а. „Правдиво и балансирано“ е иконичното лого на Fox News, което те захвърлиха през 2017 като вече ненужно.

Електронният Моцарт | К10 – 14 декември 2018

„Алгоритъм“ е термин, който свързваме с математиката и изчислителната техника. Означава система от последователни действия, които водят до решаване на дадена задача. „Алгоритми“ се наричат обаче и системите от правила и процедури, ползвани при… композирането на музика. Някому „алгоритмична музика“ може да звучи като интердисциплинарен свръхмоден експеримент, но представата за музиката като точна наука дори не е нова. Наследена е от Питагор, а после, благодарение на „последния римлянин“ Боеций, е пренесена в средновековния Квадривиум редом с аритметиката, геометрията и астрономията, за да може хиляда години по-късно Гуидо д‘Арецо на нейна основа да изобрети съвременната европейска нотация, същата тази, на която над половин хилядолетие по-късно са творили Бах и Моцарт. Т.е. „алгоритмична музика“ е и бароковата полифония с нейните във висша степен процедурни контрапунктни форми, канона и фугата. След Бах и Моцарт са романтичните експерименти на Вагнер… А после додекафонията на Шьонберг, Кейдж с електроакустиката, Ксенакис със стохастиката, Щокхаузен и първите експерименти с компютри в музиката. Оказва се, че Питагоровите представи за музика не просто са по-живи от всякога, те еволюират. Тук обаче следва въпрос: ако музиката все повече разчита на машините, това не е ли за сметка на артистите? А какво ще стане с артиста, ако и изкуственият интелект (ИИ) влезе в играта?

Всъщност, ИИ е в играта отдавна. През 1960 е публикуван първият труд, посветен на алгоритмична музика, композирана на компютър „Ural-1“. Негов автор е руснакът Рудолф Зарипов. А през 1965 американецът Рей Курцвейл изпълнява за пръв път компютърно композирана пиеса за пиано.

Първата международна конференция по компютърна музика през 1974 в Мичиганския университет е била посветена тъкмо на ползването на ИИ в музиката. От тогава насам са се появили доста инструменти на базата на ИИ, най-вече с цел да улеснят артистите: ИИ може да е акомпанятор, корепетитор, обучител благодарение на способността си да импровизира интерактивно. SmartMusic, например, реагира на грешки в изпълнението, отбелязвайки ги в партитурата.

ИИ може да се справя и с такава трудоемка, макар и не чак толкова тривиална работа, като преобразуване на музикални табулатури (такъв е REAPER’s TabEditor). Реагирайки на времеви обекти като звуци, видео и светлини, ИИ може да оркестрира и организира сложни йерархии от действия, партии, теми, мотиви, ритми, сегменти. Има програми (Orb Composer), които могат да композират цели оркестрови саундтраци за нискобюджетни продукции заради способността да следват промените в темпото и настроението. Софтуерът Ludwig пък, под формата на интерактивен отговор на въведени от човек данни, генерира мелодии съгласно строгите принципи на класическата музикална теория. Софтуерът Melomics композира автоматично, без човешка намеса, МХХ пък атомизира, редактира и адаптира музика към видео на секундата. МХХ продукти се прилагат и в индустрията с електронни игри, където изискването за динамика и гъвкавост е доведено до крайност. Има и един проект Flow Machines, подпомогнат финансово от Европейския съвет за научни изследвания (ERC), чието производно е DeepBach – невронна мрежа, която хармонизира в Бахов стил, напълно неразличим от този на великия композитор.

Май вече нищо не може да ни учуди, но почакайте! Има и един софтуер AIVA (от Artifical Inteligence Virtual Artist), който се е специализирал в композирането на уникални саундтраци за всякакъв вид медия и е първият в света виртуален композитор, признат от музикалната общност (SACEM). Всичко „написано“ от AIVA е защитено от авторското право, т.е. AIVA бива считан за автор. Появява се на бял свят през февруари 2016 в Люксембург и интелигентността му включва над 30 000 партитури на най-велики композитори в историята на човечеството, като Бах, Бетовен, Моцарт. Защо точно техните партитури ли? Защото техните партитури са вече извън табуто на авторското право, разбира се. Алгоритмите на AIVA са на основата на т.нар. „архитектури за дълбоко обучение“, на които може би ще бъде посветен отделен текст.

Симфоничната фантазия в ла минор, „Генезис“, композирана от AIVA, можете да намерите на сайта https://futurism.com.

 

Овластяване на разума | Култура – Брой 16 (3070), 27 април 2018

Тези от нас, които ползват Facebook, със сигурност от известно време се чувстват примамени от разни интересни заглавия да посетят сайт, наречен Kialo. Мрежовата неутралност, ГМО в земеделието, полезността на месоядството, автономните бойни машини, селективното отглеждане на животни, има ли Бог – темите на Kialo са всевъзможни, но заглавията не водят към статии, а към онлайн диспути и то в някакъв съвсем различен, невиждан досега формат. Той позволява не само участие, но и проследяване на аргументите „за“ и „против“ дадено твърдение – примерно, има ли Бог?
Но какво представлява Kialo? Kialo идва от „kial“ – „защо“ на есперанто, към което е добавено окончанието „о“ за обозначаване на съществително. Сайтът е в мрежата от август 2017, базиран е в Ню Йорк и Берлин, негов основател е Ерикос Пицос и вече има над 30 000 последователи в социалните медии. Сайтът обещава иновативна и предразполагаща към мислене среда и има амбицията да стане център за „критично мислене, обмислена дискусия и съвместно вземане на решения“ насред врявата и безумството на Интернет. „Овластяване на разума“ – това е мотото на Kialo и то звучи предизвикателно във времена, когато на власт при взимането на решения са изкуственият интелект и big data. И все пак, от личен опит знаем, че цивилизованият дебат, независимо дали офлайн или онлайн, винаги се случва с цената на много тромава процедура и тежко, не винаги добре посрещано от дебатиращите страни модериране. Различно ли е при Kialo? Различното е, че дискусиите са структурирани „арборесцентно“, както биха се изразили Дельоз и Гатари – нещо, което би ни позволило бързо и отчетливо да разберем защо е било взето едно или друго решение и кой как е допринесъл за него. Не се допуска обичайният за мрежата шум – коментари, които не обогатяват с някаква конструктивна гледна точка спора. Основната „валутна единица“ на Kialo, според Пицос, е твърдението, а не аргументът; и понякога се случва сътрудниците, които изказват твърдения, да пишат и контрааргументи към собствения принос.
Предполага се, че на Kialo най-добре се чувстват експертите, чиито мисли по даден въпрос всеки би искал да знае (има и система за оценяване), но могат да се срещнат в мрежата и такива, които са очаквали експертността им да е добре посрещната, а вместо това са се натъкнали на пренебрежително и дори агресивно отношение от страна на модераторите. Такива се заканват да продължат да са верни на доста по-стария (от 2006) сайт за дебати IQ2US. Очевидно проблемите с груповото мислене и изобщо с комуналните начинания си остават все същите, независимо от формата и технологията, и един от тези проблеми е тъкмо модерирането. Ако до дискусия биват допускани само експерти в дадена област, ще бъде въведена ненужна йерархия, дискриминация (и възможност за манипулация) там, където би трябвало да има повече комуникация и прозрачност. Добър опит може да се почерпи от Wikipedia, която също е колективно начинание. Задкулисните дискусии там често са много по-информативни от самите статии.
От друга страна, без известна експертност или дори просто грамотност, дискусия няма как да се случи, защото, за да има смислена размяна на аргументи, трябва да има яснота и еднозначност при ползването на понятията.
И още един проблем: около подобни инструменти винаги съществува подозрението, че развитието им се случва благодарение на впрегнатия колективен (и безплатен) ентусиазъм на потребителите, но крайният резултат се осребрява винаги и единствено от основателя и тесния кръг около него. Как се издържа Kialo, след като не допуска реклами, нито какво да е манипулиране на потребителите?
Според признанието на Пицос пред Financial Times, сайтът, коствал му шест години работа и поддържан от 50-членен екип, в момента се финансира с негови средства. Пицос не назовава сумата, но споделя, че вече се е свързал с компании и правителствени организации, които искат да лицензират подобен софтуер, тъй като той „работи много по-добре в една корпорация, отколкото срещите на живо и дългите вериги в електронната поща“.
Каква ще е съдбата на „бялата врана“ Kialo, само времето ще покаже.

Информационната вувузела | Култура – Брой 42 (2964), 04 декември 2015

Има една антична богиня, която елините са наричали Феме, а римляните – Фама. Това е богинята, чиято благосклонност носела слава на смъртните, а гневът й – скандали и злословия. В поемата „Енеида“ Вергилий изобразил Фама с множество езици, очи и уши – алегория на това, че скандалът се поражда първо от дочути шепоти, които се умножават и усилват, за да се разразяват накрая като ураган. На покрива на Дрезденския Университет за визуални изкуства пък скулптурата на богинята е с крила и тромпет.
И понеже в нашето пост-пост-модерно време митовете са отново в употреба, на богиня Феме (Pheme) е кръстен международен изследователски проект, чийто предмет е установяване, доказване и работа в подкрепа на истинността на твърденията в интернет. Партньорите – Университетът в Шефилд, Университетът във Уоруик, Кингс Колидж, Университетът Саарланд в Германия и MODUL във Виена плюс 4 компании, сред които и българската Ontotext.[1]
Всеки от нас, ползувателите на социални медии, поне веднъж се е чувствал безпомощен в опита си да се ориентира в света, в който живее; поне веднъж е ставал жертва на дезинформация, манипулация, спам, фишинг. Но дори и да не е, то със сигурност е хронично претоварен с информационен боклук, който се лее като от рог на изобилието, но никой дори не се пита какво става с него, къде се отлага, как се преработва. И докато големите данни на големия трафик изправят сетивата ни пред предизвикателствата на 3-те v-та – „volume“, „variety“ и „velocity“ („обем“, „разнообразие“ и „скорост“), то социалните медии привнасят и едно четвърто „v“ – „veracity“ или „достоверност“, което ни потапя в перманентната несигурност на един свят от думи, който като че ли всеки миг ще се сгромоляса под тежестта на собствените си делюзии.
Русия свалила самолет? Или е свален самолет на Русия? По границите се стреля? Или изобщо няма граници? Окото на Лондон гори? ИДИЛ са превзели Берлин? Банка еди си коя е фалирала? Марсианците ни нападат?
Докато се уверим, че някоя мълва е вярна, страстите вече са се нажежили, а последствията – станали необратими. Това не би било чак толкова лошо, ако масовото съзнание беше нещо повече от суха прахан, а това, което попада в него – само истина.
Явно за това ще се грижи европроектът на име Феме – ще се грижи до нас, до нашето недоволство да достига, хм, само истината под формата на достоверни новини. Изграждане на детектор на лъжата в реално време – така определя задачата Феме.
Истината ще се идентифицира на основата на анализа на три фактора: първо, информацията, присъща на самия документ – лексикална, семантична и синтактична информация.
Друг фактор – източниците, асоциирани с тази информация. Примерно, ако източникът на дадена информация е BBC news, Феме автоматично ще го преценява (вместо нас!) като по-достоверен и релевантен от някой неизвестен, анонимен източник и ще курира съдържанието в него, а ще крие „съмнителния“. И накрая – ще се анализира разпространението на дадена информация – какво, как и кога се предава към кого? Чрез анализ на тези фактори, Феме ще прави оценка на източниците на информацията и ще категоризира слуховете като спекулации, противоречия, недоразумения и дезинформация. Екипът на проекта е създал термина „феми“, за да добавя към заразните социални „меми“ стойността „истина“ или „лъжа“.
Не че досега у нас не са правени спорадични опити да се определя кое е достоверна информация и кое не. Манипулира се рейтингът в Google на лични блогове и страници, правят се списъци с имена на журналисти и медии, клеветят се опоненти – и всичко това под словесната глазура на думи, като „морал“, „етика“, „смелост“…
И все пак, има известна надежда за съпротива срещу „интелигентния“ софтуер и социалните ботове-идиоти. Ще завърша с мнението за тази технологична „новост“ на член на групата „Свободен и неутрален Интернет“ във Facebook: „Имам такъв софтуер отдавна. Казва се „здрав разум“, версия 1971.“

 


[1]  Този проект тръгва на 1 януари 2014 по споразумението за безвъзмездна помощ № 611233 по Седма рамкова програма на ЕС за изследване и технологично развитие. Продължителността му е 36 месеца.

Сбогом, Платон! | Култура – Брой 11 (2933), 20 март 2015

Google се променя. Мутира в самата своя същност. В последния ден на февруари Ню Сайънтист посвети статия на тези промени, озаглавена “Google иска да рейтингува сайтовете според фактите, не според връзките” . За да обобщя съдържанието на статията в популярен стил, ще ползвам популярен цитат: „…ако всички архиви разказват една и съща история – тогава лъжата минава за история и се превръща в истина.” („1984”, Оруел).
Кое налага тези промени? Според разработчиците, налага ги претовареността на интернет с информационен боклук – спам, невярна информация, фалшиви новини, пропаганда, просто шум… Класически е примерът с антиваксинационните уебсайтове, които се разпространяват като пожар из мрежата. Google ги филтрира, защото са “боклук” (и в голямата си част наистина са такива), докато „научните“ проваксинационни сайтове на пословичния с лъжите си в САЩ Център за контрол и превенция на заболяванията излизат като каймак най-отгоре.
Как Google е успял да постигне това? Както стана дума още в началото, с промяна на самия модел, изчисляващ релевантността на ресурсите. Досега с привилегии се ползваха сайтовете с висок pagerank – показателят за репутацията на един сайт в мрежата според броя хипервръзки (позовавания, цитирания на съдържанието) към него. Това косвено съответстваше на качеството на съдържанието на сайтовете и с pagerank доста се злоупотребяваше. Сега, вместо да брои входящите линкове, системата за класиране брои грешните факти, публикувани на страницата. Т.е. вече имаме оценяваща система, „базирана на знанието“. Това звучи като чудесна и много релевантна алтернатива на изхабилата се pagerank. Един въпрос обаче веднага започва да ни притеснява: кой и как ще преценява стойността на фактите? Машина ли ще изчислява кое е истина и кое не? И ако да, как ще се справят машините с нещо, занимавало човечеството, откакто съществува. Какво ли би казал Витгенщайн, например, за този установяващ истината софтуер?
Обяснението, което статията в Сайънтист дава за механизма на работа, е “посредством проникване в Трезора за знания, представляващ огромен склад за факти, събрани от Google (без човешка намеса) в интернет. Това са факти, за чиято истинност има консенсус в интернет, поради което те са признати за „разумен заместител на истината“, т.е. установяването й вече не е процес на извличане на епистемологичната субстанция от някакви противоречия, не е въпрос на диалог, изтъкан от противопоставяне на изискани аргументи, не е дори плод на яростен спор. Тя е вече въпрос на… консенсус. Вече имаме машина, която отсъжда кое е истина и кои страници от уеб архива да потънат надолу в класацията.
Иначе има немалко уеб-приложения с отношение към истинността.
Едно от тях се нарича LazyTruth (Мързелива истина) . Това е приставка на браузъра, която ви чисти пощенската кутия от спам.
Emergent е друга такава услуга. Това е проект на Tow Center за дигитална журналистика към Колумбийския университет, Ню Йорк. Нейното предназначение е да ви пази от зловредна и погрешна информация от рода на тази, например, че Обама е мюсюлманин.
Съществуват още Snopes, PolitiFact, FactCheck.org… Сега изобретателят на LazyTruth Мат Стемпек и директор на отдела за гражданска журналистика в Майкрософт, Ню Йорк, има желанието да разработи софтуер, който да извлича факти от всички тези сайтове. Ню Сайънтист го цитира: LazyTruth е полезен онлайн, но, според него, борбата с неверните схващания на хората е трудна. Как да поправиш недоразуменията? Хората са така отбранителни. „Ако те сами търсят отговора в Google обаче, биха били много по-възприемчиви.“ Разбира се! Google в сътрудничество с ЦРУ се превръща в глобално Министерство на истината.
Неговите „администратори“ на истината ще се грижат вече винаги да имаме подръка правилните (съгласувани с CDC) „медицински факти“; правилните версии за изборни измами; правилните версии на истории за свалени, изчезнали самолети, мъртви държавни глави, масови разстрели; правилните версии на историите за корпорациите и подкрепяния от държавата тероризъм.
Можем отсега да кажем „Сбогом!“ на разследващата журналистика! На волното сърфиране из мрежата! Сбогом на случайни находки и внезапни открития! Сбогом, Платон!
Райна Маркова

И невидимото стана видимо? | Култура – Брой 10 (2932), 13 март 2015

World Wide Web е много по-обширно място, отколкото мрежовите обитатели подозират. Според разработчика Крис Уайт от DARPA(американската Агенция за нови технологии в отбраната към Пентагона), популярните търсачки Google, Microsoft Bing и Yahoo позволяват достъп едва до 5% от съдържанието в мрежата. Останалата дива и неопитомена част от WWW, всичкото това не индексирано и не картографирано, до което не може да се достигне чрез сърфиране по повърхността на информационния океан, е т.нар. Deep Web или Дълбока мрежа. Част от нея пък е Dark Web, Тъмната мрежа, за чиято лоша слава вече е ставало дума в мрежа/паяжина покрай сайта SilkRoad, нелегалния двойник на Amazon, и неговите нелегални дейности, като търговия с наркотици и оръжие, човешки трафик, детска порнография и какво ли още не. SilkRoad бе съсипан преди време, но въпросите, които борбата с „тъмната мрежа“ постави, останаха без отговор.
Нека припомня някои неща: „Тъмната мрежа“ е преди всичко частна мрежа. Тя ползва нестандартни протоколи и обслужва изключително и само частни нужди, които не се нуждаят от публичност и реклама. Участниците в нея са не просто равнопоставени и анонимни („peers“), както в р2р (Peer-to-peer) мрежи на торентите. Те ползват още по-поверителния friend-to-friendпротокол (F2F), който не допуска лесно нови потребители в кръга си. Както вече стана дума покрай SilkRoad, борбата на експертите с тази своеобразна мрежова Camorra води до съмнителен резултат дори там, където уж е в името на добрите намерения. А забраняването на технологии и ограничаването на универсални свободи заради частния случай на нечия злоупотреба с тях, от опит знаем, не гарантира благополучие, но гарантира накърняване на свободите.
Докъде са стигнали експертите в усилията си по овладяването на съдържанието в недостъпните бази данни и проблемите, свързани с тях?
Вече са правени опити за създаване на специални търсещи машини, които да индексират съдържанието на Тъмната мрежа. Чували сме за Yahoo! Subscriptions, Qprober и MetaQuerier. Тия дни се състоя и премиерата на новата търсачка Memex, разработка на Пентагона, за която се чу още миналата година и която още тогава бе обявена за края на Тъмната мрежа.
Разработчикът на Memex е цитираният вече Крис Уайт от DARPA. Уайт твърди, че Memex е далеч извън обсега на традиционните търсачки с това, че може да претърсва и индексира тъмни места в мрежата, като анонимизатора TOR и Invisible Internet Project (I2P), а също и милиони пропускани досега страници в мрежата. С това Memex дава в ръцете на правосъдието мощен инструмент срещу „тъмната мрежа“ и нередностите, които се вършат в нея. Какво обаче ще стане с частния живот и бизнеса на хората в мрежата? Кой и как ще гарантира, че с всичката тази информация няма да се злоупотребява? Засега като че ли не се чува нищо съществено по въпроса.
Освен това, Memex борави с големи данни. Тази технология работи на базата на алгоритми, разкриващи автоматично взаимовръзки, често прекалено странни и спорни, за да е редно да се правят въз основа на тях съдбовни изводи за вината или невинността на някой мрежови гражданин. Та, ако и да не бъдат разкривани самоличности, физически адреси и поверителна информация чрез резултатите от Memex търсенето, как ще се гарантира безпогрешността на този автоматичен анализ, който може да ни обяви за опасни престъпници само въз основа на някакви корелации, а агенциите да ни третират като виновни до доказване на противното?
Има и още нещо, което вече бе наречено в медиите „нова парадигма за търсене“ – Крис Уайт обеща търсачката да предлага персонифицирано съдържание, както и инструменти за интерфейс и конкретни тематични области въз основа на събраната информация за търсещия. Тоест, ролите леко се поразменят – не само ние ще претърсваме мрежата за информация, но и мрежата ще се информира за нас и ще преценява и пресява независимо от нас това, което евентуално да ни поднесе. Вие бихте ли искали да бъдете „улеснявани“ от търсачка с неограничен достъп до информация, но ограничаваща вашия? Бихте ли искали да обитавате тунелна реалност, устроена „специално“ за вас?

Все по-призрачно | чКултура – Брой 28 (2907), 25 юли 2014

Светът никога не е бил толкова отчайващо място. Това е свят, в който, благодарение на технологиите, нашата неприкосновеност не значи нищо. В същото време това е свят, в който безследно може да изчезне цял Боинг, примерно, и това да послужи като неопровержим casus belli. Пак благодарение на технологиите.
Сноудън беше този, чиито разкрития, публикувани в The Guardian и The Washington Post преди година, позволиха на света да узнае за съществуването на американската правителствена програма PRISM и че прихващането на трафични данни е много по-мащабно и много по-близо до определението „престъпно“, отколкото се подозира. Тъкмо благодарение на неговите разкрития разработчиците на софтуер би трябвало да са научили вече един важен урок – централизираните услуги са уязвими. Бъдещето е на децентрализираните.
И макар напоследък да е все по-трудно да гледаме в бъдещето с оптимизъм, не ни остава друго, освен отново да се опитаме да потърсим там инструментите за оцеляването си. Голяма част от информацията, която оставяме за себе си в мрежата, идва от ползването на класическите търсачки Google, Bing, Yahoo. Те имат алтернатива обаче – т.нар. децентрализирани търсачки (Distributed search engines). Това са търсачки, които, за разлика от класическите, имат за ядро не един централен сървър, а компютърна програма, която работи с всякакви операционни системи, а търсенето се провежда не от един портал, както е обичайно, а от локален уеб сайт, който се зарежда с помощта на програмата. Така работните операции (претърсване, извличане на данни, индексиране и обработка на запитването) са разпръснати по множество сървъри, които много трудно могат да попаднат под тотален контрол.
Първата такава P2P търсачка, наречена InfraSearch, е била създадена през 2000, а една от по-новите и препоръчвана от Сноудън е YaCy, пусната през декември 2003. Тя е дело на германеца Михаел Кристен, поддържа се от европейския отдел на Фонда свободно програмно осигуряване (FSFE) и се разпространява под лиценз GPL. Можете да я намерите на адрес http://yacy.net/
YaCy (от англ. Yet another Cyberspace, Още едно Киберпространство) има версии за всички операционни системи – Windows, Linux, MacOSX. По данни от 2011 г., основният програмен модул функционира на няколкото хиляди компютъра на участниците в YaCy-мрежата. Всеки участник в проекта в процеса на своето напълно автономно претърсване на Интернет функционира като сървър, който анализира, индексира и складира резултатите от търсенето в общата база данни, наречена индекс, който е достъпен за всички ползуватели на YaCy на P2P принцип. Това значи, че колкото по-популярна става YaCy, толкова по-богата база данни и по-бърза и качествена работа може да се очаква от нея.
YaCy е с напълно, а не частично децентрализирана архитектура, с абсолютна равностойност на всички възли в мрежата и пълно отсъствие на централен сървър. Т.е. контрол над нея практически не може да се установи. Програмата може да работи в режим на търсене или като локален прокси-сървър (със суфикс *.yacy), индексирайки страниците, посещавани от потребителя, но игнорирайки инструментите за прихващане на персонални данни – познатите „бисквитки“.
Предимствата на YaCy са вседостъпност като време и място – винаги някоя част от мрежата работи; независимост от частните компании, борбите им за рейтинг и цензурата им. Програмата е с отворен код и се разпространява под безплатния лиценз GNU GPL. Освен това, YaCy сканира и страници от неиндексираните дълбини на уеб, които са недостъпни за претърсващите роботи на обикновените търсачки Google, Yahoo или Bing. YaCy може да работи и извън глобалния клъстер и така да бъде ползвана и в частните вътрешни мрежи на компаниите или в частните търсачки.
Недостатък са спамерите, които могат да задействат свои възли и оттам да излъчват спам. Също, поради дислоцираността на YaCy и незадължителната проверка на достоверността на резултата, търсенето отнема повече време.
Бързината и количеството на резултата зависи от количеството работещи възли. Този недостатък би бил преодолян, ако YaCy набере популярност.
Така стоят нещата в този нов, сумрачен, превзет от технологиите свят. Източниците на заплаха стават все по-призрачни. Все по-призрачни обаче стават и оръжията срещу тях.

Идентичност | Култура – Брой 25 (2861), 05 юли 2013

…Нашата цивилизация е от най-лошия вид топящ се пластелин, който можем да си представим. И това е голям проблем. – така Асанж определи света, в който живеем, в разговора си с Ерик Шмид, за който стана дума в предишната колонка. Така е, защото светът е разкъсван от разнопосочни сили, от една страна, това е глобализиращият техно-абсолютизъм, а от друга – силите, стремящи се да удържат нещата в техните граници. Тези неща могат да бъдат всякакви: отделна личност, група, артефакт или просто уникален къс информация – всичко, което притежава име и идентичност.
Знаем, че прогресирайки, технологиите промениха труда, а той – обществения строй. Това доведе до нов тип общество, което Мануел Кастелс нарече „мрежово”. То е в плен на нестабилната, но всепроникваща съвременна медийна система, която, комбинирайки много канали за комуникации в себе си, трансформира времето и пространството до степен намеса в материалните основи на живота. В крайна сметка, стана така, че в един свят, в който всеки миг от живота е белязан от „времево клеймо” и съхранен „за историята”, историята спира своя ход, а всичко съществуващо, защитено с патент и снабдено с баркод, се оказа изложено на риска от радикално изчезване. Идентичностите изчезват и то съвсем не единствено в социологическия смисъл на Кастелс. Изчезват авторите заедно с артефактите само поради това, че вече нищо не може да гарантира автентичността на едните чрез тази на другите.
В тази връзка Асанж се саморазкрива като един доста особен социален актьор: той се стреми не към абстрактна справедливост и съпротива, а към трансформиране на цялостната обществена структура – подпряна на една индустрия за подмяна на историята, на една икономика на спектакъла – чрез съвсем конкретни, технологични инструменти.
Те използват стопански труд, за да прикрият части от историята, казва Асанж. Важни парчета история, съвременна история, която е имала значение… бяха премахнати от интелектуалната историография. … След като са премахнати, как бихте узнали, че са били там, как да ги намерите? Не само, че са престанали да съществуват, но все едно, че никога не са съществували. Ами да, това е особеното на информацията – тя съществува в своето платонично пространство и за разлика от материята, има качеството да се появява и да изчезва напълно безследно. Какъв е технологичният инструментариум, архитектурата на Wikileaks, която се съпротивлява на целия този «стопански труд», полаган в името на изчезването на парчета история? Принципът може да се обобщи най-нетехнологично с една единствена дума: наименуване. Асанж изрично подчертава важността му: Наименуването на човешката интелектуална дейност и цялата ни интелектуална история е може би най-важното нещо. Именуването е важно навсякъде, където се ползва абстракцията на имената с цел обозначаване на някаква идентичност, същото се случва и като използваме унифициран локатор на ресурси(URL адрес), но точно тази позната структура наименуване/пространство, според Асанж, е порочна, защото е човешки нечетивна и не маркира по никакъв начин, че информацията, съдържаща се под един URL, е важна, проверена, а оттам и съществена за историята. Според Асанж, имената на отделните артефакти не трябва да зависят „от някоя организация”, а от интелектуалното съдържание, да бъдат свързани неразривно с него до степен, че ако бъде изменено това съдържание, това да засегне и наименованието. Звучи абстрактно, но е постижимо с помощта на алгоритъм, който вече е познат като т.нар. „хеш-функция”. Хеш-функцията може да бъде разбрана и от технологично най-неизкушените чрез синонимите си: „цифрова сигнатура”, „отпечатък” или „извлечение” (message digest, digital fingerprint). Тази функция има способносттада раздробявада сбива голям набор от данни в малък баркод, който навсякъде е от еднакъв размер и служи за бързо сравняване на файловете. Ако хешът (пръстовият отпечатък) е различен, значи и съдържанието (идентичността) е различна.
Това е според Асанж: човешките интелектуални артефакти трябва да имат възможността да бъдат напълно независими от каквато и да е система на човешки контрол! И той твърди, че възнамерява да превърне това във всеобщ стандарт.

Storify | Култура – Брой 32 (2780), 30 септември 2011

Storify (сторайфи) е дума от британския журналистически жаргон от не много далечното минало. Означава „да оформиш нещо като история”. Това също така е името на една сравнително нова социална мрежа, базирана в Сан Франциско, която наскоро бе обявена от Time за един от 50-те най-добри сайтове на 2011. Storify спечели и тазгодишната британска награда Knight-Batten за иновации в журналистиката.
Какво представлява Storify? Това е сайт, който позволява на потребителите си да компилират свои собствени истории от туитове, facebook статуси, коментари, снимки, видео от други източници, давайки им понякога нов и неочакван контекст. Мотивът за това е сериозен: в информационния потоп ценните зърна истина се губят, а Storify дава възможността те да бъдат уловени, съхранени и споделени по най-бързия и ефективен начин с аудиторията.
Някои коментатори сравняват този инструмент с автоматизираното агрегиране на новини в Google News. Според други иде реч за филтриране, архивиране и куриране на съдържание, което става не с помощта на алгоритми, а което човек предприема чисто субективно.
Инструментът Storify има много предимства и първото от тях е, че не е нужно да сте квалифицирани в писането на истории, за да го правите. Достатъчно е да имате отношение към дадено събитие, (тема, продукт). Storify чисто технологически улесняване търсенето, компилирането, агрегирането, вграждането и редистрибутирането на вече споделено във всевъзможни формати съдържание в други социални мрежи. Storify също така не погазва и авторството – инструментът пази и вгражда в историята ви мета-данни за източниците ви. Освен това, Storify е безплатен и, поне засега, необременен от реклами.
Storify има и някои недостатъци. Преди всичко той не е прост за ползване. Компилацията на историите не става автоматично, налага се осмисляне на информацията. Трудоемка си остава и работата по подбирането на ценното съдържание. Освен това, далеч не всички потребители на Twitter, Facebook, Youtube и др. са съгласни да се ползва споделеното от тях, дори и да бъдат споменати като автори.
Под въпрос е също така и достоверността на ползваната информация. Ако се опитвате да създадете хроника на събития, на които не сте очевидец, лесно можете да се окажете подведен и подвеждащ. Можем да си спомним няколко фрапантни примера за злоупотреба с новите медии покрай т. нар. Twitter революция след изборите в Иран през 2009.
Някои пък виждат в Storify поредната атака на интернет срещу институциите, в случая институцията на традиционната журналистика. Къде отива репортажът, ако всичко се свежда до настолно занимание, ползващо репортажите на нежурналисти, на обикновени граждани, озовали се случайно на мястото на някое важно събитие. Нали тъкмо рискът да си свидетел на това, което описваш, те прави журналист?
Всъщност, дори и на най-активните журналисти понякога им се налага да си съставят мащабна и безпристрастна картина за някое събитие, на което не могат да са преки наблюдатели. Storify е отличен инструмент за целта. Освен да курира съдържание, той е от помощ и за създаване на отношение у публиката към описаното и да мобилизира за граждански действия иначе равнодушните потребители.
Този път като че ли технологиите се намесват, за да опровергаят твърдението, че историята се пише от победителите.
Всъщност, Storify не е единственият инструмент за куриране на съдържание. Има и други подобни услуги в помощ на журналистите: StoryfulTumblrColor. Facebook също се развива в посока, небезразлична към иновациите в журналистиката. Ако Storify получи публичност през втората половина на април т.г., то от началото на април във Facebook функционира услугата Facebook + Journalists. Информацията за нея засега е повече от скромна: „достигнете до своите читатели директно през Facebook в неговата 500 милионна аудитория… Ползвайте го като платформа за работа и общуване с други журналисти…”
Съвсем пресните обновления във Фейсбук, обаче, и на първо място инструментът Timeline, представен на проведената на 22 септември т.г. конференция на разработчиците от самия Зукърбърг, като че ли правят тенденцията повече от ясна.