Личности по каталог | Култура – Брой 7 (2755), 25 февруари 2011

Направило ли Ви е впечатление, че от доста време виждате новини и обновления само на едни и същи хора на вашата стена?

Забелязали ли сте, че когато пуснете нов статус, снимки или препратки, същият този кръг от хора коментират върху тях?
Не се притеснявайте, всички все още ви обичат и никой не ви е блокирал.
Притежателите на фейсбук профил със сигурност разпознават началото на едно съобщение, обиколило наскоро социалната мрежа, придружено с упътване как проблемът да бъде решен. 
Става дума за проблем с автоматичния филтър на „новия фейсбук“, една настройка по подразбиране, която отсява за нас публикациите на хората, с който най-активно комуникираме за сметка на всички останали.
И други уеб услуги напоследък ни изненадват с подобни „улеснения“ по подразбиране, оставяйки ни да гадаем по какъв начин сме успели да излъчим толкова много, поддаваща се на категоризиране, информация за себе си. Какво всъщност се случва с Web?
Промяната е резултат на подетата в края на април м.г. инициатива, наречена Facebook Open Graph, засягаща, за добро или зло, не само едноименната социална мрежа, но и начина, по който изобщо Web работи. Новата Webвече е една категоризираща Web. Допълнителното „омрежване” на смислово ниво се случва благодарение на група методи и технологии, целящи да позволят на машините да разбират смисъла на информацията в електронните документи. Това е една “мрежа от данни“, както я нарича Тим Бърнърс Лий, „която може да бъде директно обработвана от машини.”
Като всяко нововъведение, така и Facebook Open Graph разкрива постепенно в хода на работата своите недостатъци и грешки, но също така буди и ред подозрения. Едно от тях е, че целта е не една по-структурирана и богата Web, а просто прихващане на повече информация за нас самите, нашите идентичности и поведение онлайн в базите данни на Facebook, която да бъде предоставяна на издателите на съдържание.
Не бива дори да си правим илюзия, че крайната цел на нововъведението в случая с Facebook няма за цел разкриване на нови комерсиални хоризонти в Web. За да разберем как то тепърва ще работи, бихме могли да погледнем на семантичната мрежа като на диалектично единство от два сегмента: данни и електронна търговия.
Данни: събираните от Facebook данни са в полза на таргетираната реклама. Свободните данни, тъй важни за развитието на семантичната уеб, за която призовава в името на прогреса Тим Бърнърс Лий открай време , не са сред интересите на Facebook.
E-търговия: това, което различава комерсиалната дейност в семантичната мрежа от съществуващата досега, подчинена на принципа pay per click (заплащане на брой посещения), е, че тя е организирана на друг принцип. Специфичните и поверителните запитвания на естествен, човешки език изместват търсенето по ключови думи. Семантичната мрежа е една категоризирана мрежа. Ако публиката иска нещо, тя пита за него и тогава издателите й го предлагат, а не обратното – вече произведен продукт очаква чрез търсачките евентуалният купувач да достигне до него. Това е едно, така да се каже, преобърнато търсене, ние търсим нещо, което още никой не ни е предложил. Подобен принцип на задоволяване на очакванията ни трябва да въплъти в себе си представите за прогрес, но всъщност очертава едни твърде предвидими и ограничени хоризонти, детерминирани не от нашите собствени, а от най-примитивните масови очаквания. Ето защо много от нас приемат нововъведенията, в това число и новия си Facebook профил напоследък, не като услуга, а като източник на безпокойство и дискомфорт.
Има нещо дълбоко обезпокояващо в схващането, че всички по света биха възприели една единствена, унифицирана онтология и биха се вписали в нея, без да изгубят консистентността си. В есето си „Поколението защо?  писателката Зейди Смит цитира манифеста на пионера на виртуалната реалност Джейрън Лейниър „Вие не сте играчка” заради начините, по които хората „смаляват самите себе си“, за да накарат да изглежда по-акуратно описанието, дадено им от някой компютър.
Уви, дори Facebook все още не може да предложи компютърен аналог на онова, което ние наричаме „личност“.

Онтологическата полиция на бъдещето | Култура – Брой 37 (2740), 29 октомври 2010

На 28 септември в изследователския център в Пало Алто на компанията Xerox едно ново чудовище видя бял свят. Става дума за търсачката Meshin, добавка към вече познатия ни Microsoft Outlook, ползван от нас за оптимизиране и организиране на ежедневните потоци информация. Meshin умее да претърсва не само мейлите в пощенската ни кутия, но и прикрепените към тях документи, RSS емисиите на блоговете, които следим, и социалните мрежи, в които участваме. Тя е интересна и с друго! Тя възвестява края на търсенето по ключови думи. Бидейки чувствителна към смисловото съдържание на документите, Meshin е стъпка напред в посока към семантичната web 3.0. Тя прави ненужна мета-информацията, добавяна не винаги съвсем добросъвестно в сайтовете, с цел оптимизиране на намирането им в Google. Целта, според Крис Холмс, изпълнителен директор на Meshin, е намирането, свързването, съгласуването и структурирането на късовете информация по логичен и бърз начин, а според Софи Вандебрук, изпълнителния директор „Технологии” и президент на Xerox Innovation GroupMeshin e чудесен пример за едно ново поколение търсачки, които отговарят много повече на начина, по който хората мислят, работят и общуват помежду си.
Тези от нас, които ежедневно са длъжни да боравят, при това възможно най-бързо, с големи количества информация, знаят какви са недостатъците на комерсиализирания до крайност Google. Знае се и какъв ред би внесла в хаоса една релевантна търсачка, пресяваща вместо нас всичкия мета-боклук и позволяваща ни една по-добра икономия на вниманието. От друга страна, тези все по-разбиращи ни и взимащи отношение към нашия човешки свят машини не бива да бъдат приемани безрезервно.
Целта на тази колонка дори не е Meshin, а семантичната web най-общо. За целта ще се върна с малко повече от десетилетие назад във времето. Семантичната web е творение на Тим Бърнърс Лий, същият, който създаде и World Wide Web, и е следствие от един негов по-ранен проект, т.нар. Платформа за сортиране на интернет съдържание (Platform for Internet Content Selection или PICS). PICS позволява meta-данни под формата на етикети да бъдат асоциирани със съдържанието в мрежата и първоначално е била проектирана в помощ на родителския и учителския контрол. Тя, естествено, позволява и други употреби, свързани с контрол на достъпа, а етикетирането на съдържанието довежда до критична точка онова, което ние продължаваме да считаме за неотменим атрибут на мрежата – свободното разпространяване на информация в нея.
Друга подобна и дори още по-ефективна разработка на web консорциума на Лий е една Схема за описване на ресурсите (Resource Description Framework). RDF ползва хиперлинковата структура на мрежата, като я разширява и структурира допълнително на принципа на човешките ментални структури. Знаем колко важно е за нас, мислещите, чувстващи и стремящи се към тоталност индивиди, структурирането на постъпващата в мозъка ни информация и фактът, че подобно нещо може да бъде поверено на машина, не може да не ни прави неспокойни.
Тим Бърнърс Лий нарече семантичната web “мрежа от данни”, защото тя е вече не мрежа от „линкнати“ помежду си документи, а именно данни, индексирани за дълбинен достъп до тях.
Семантичната мрежа ще даде на машините възможност да сравняват смислово, казва още Лий, а ние знаем, че както всяка една етикетираща, сравняваща и класифицираща смисли система, семантичната web също носи потенциалната опасност за засилен и трудно установим контрол върху информацията или, иначе казано, за цензура.
В своята статия за WIRED от юли 1997, озаглавена „Тиранията на инфраструктурата“, Лорънс Лесиг написа: PICS е дяволът. . . PICS ще бъде един крайно многофункционален и мощен инструмент за цензура.
От появата на PICS са изминали десетилетие и повече. Можем само да гадаем докъде е стигнало развитието на този тип инструменти днес. След епохата на безконтролна дистрибуция на съдържание в мрежата по напълно либерален маниер, явно се е задала епохата на рафинирано неумолимия тоталитарен контрол. И двата пъти заслугата е на Тим Бърнърс Лий.

Правилен въпрос* | Култура – Брой 12 (2539), 27 март 2009 Начална страница

Краят на по-миналата седмица се оказа богат на новини от света на търсачките: след временното излизане от строя на електронната поща Gmail, друго едно приложение на Google създаде проблем – безплатният, уеб-базиран офис пакет Googe Docs позволи неоторизиран достъп до архива на част от своите потребители. Въпреки оправданията на компанията, че пораженията са минимални, и въпреки убедеността на повечето потребители, че Google печелят достатъчно от доверието им, за да имат причина да го губят с неетични сделки в полза на частни компании и политици, все повече стават и тези, които се надяват на алтернатива на монополиста Google, при това некомерсиална.

Чисто съвпадение, но по времето, когато в мрежата се дискутираха тези проблеми, се появи и добрата новина за скорошното пускане (през май) на адрес www.wolframalpha.com на търсачката Wolfram Alpha. Тя е дело на Стивън Уолфрам, британски математик, известен още от 70-те години на миналия век с разработката си на системата за компютърна алгебра SMP (Symbolic Manipulation Program), а после и на мощния научен инструмент Mathematica (1988), представляващ сложна система от библиотеки с елементарни и специални математически функции, огромни масиви разнообразни данни, инструменти за визуализация и за обработка на изображения, статистически библиотеки и още много други. Уолфрам е известен също и с диспута, който е предизвикал с гигантския си емпиричен труд New Kind of Science (‛Нов вид наука“), който е изграден върху представата, че Вселената е дигитална по своята същност. Тази негова представа, както и опитът му с Mathematica, са залегнали в основата и на Wolfram Alpha, която, по думите му, е „смес от много и умни алторитми, евристика, езикови открития и грижа за езика и неминуемо ще доведе до сериозен теоретичен пробив… И докато Google просто доставя документи на базата на търсене по ключови думи, тази търсачка има амбицията да улесни хората да правят своите запитвания на естествен език: просто едно въвеждане на въпрос в празното поле и получавате достъп до огромна система от данни и алгоритми.

Нова Спивак – пионер на web3.0 и предприемач, казва за работата на тази ‛машина за отговори“ следното:

‛Wolfram Alpha е система за изчисляване на отговорите на въпроси. За да изпълни задачата си, тя ползва вградени модели от различни области на знанието, допълнени от данни и алгоритми, представляващи напълно реално познание.“

Всички знаем колко скаран е Google с естествените езици и как премахва от търсенето всичкия този ‛незначителен словесен шум“ – определителните членове, предлозите, съюзите. С това обаче Google неусетно влияе на начина, по който започваме да си служим с езика; ‛гугълизира“ го, превръща го, за добро или зло, в мозайка от ключови думи, вместо в логически свързани изречения, които на свой ред да са свързани помежду си в логични абзаци. За някои това е печална перспектива, за други – не чак толкова, но истината е, че винаги трябва да има алтернатива.

Според някои достойнствата на бъдещата търсачка се преувеличават с цел реклама, а справянето с естествените езици на Wolfram Alpha е всъщност заобикаляне на проблема с предварително заложен контекст на търсенето – задаване на въпроси от научно естество. Освен това, много от нас знаят, че почти от година функционира бета версия на подобна сeмантична машина за отговори True Knowledge .

Истината обаче е, че всяка една мощна алтернатива на Google ще бъде топло приета от ползувателите на интернет, защото (цитирам случаен анонимен коментар под статията, посветена на Wolfram Alpha в CNET): ‛… когато web навлезе в 90-те, се надявах тя да заздрави демокрацията, помагайки на всеки по-лесно да научава фактите. Но web прекалено бързо се наблъска с толкова много пропаганда, че можете да си изкарате душата от ровене с google и още да продължавате да вярвате, че Ал Гор е открил интернет… Може би все пак тази търсачка ще пресява по-добре преувеличенията?“

**“Правилен въпрос‛ е заглавието, с което разказът ‛Ask a Foolish Question“ на Робърт Шекли е известен в мрежата на български и е достъпен на следния адрес: http://www.sfbg.us/authors/r/robert_sheckley/Stories/Ask_a_Foolish_Question.htm

Фолксономия

Един неологизъм доби важност напоследък в мрежата. Това е думата фолксономия. Производна на други две думи – „folk“ (общност) и „taxonomy“, и служеща на някакви локални, вътрешно общностни нужди от класификация на нещата, тя лесно може да се обърка с това, което Дюркейм и Леви Строс наричат folk taxonomy. В действителност става дума за нещо по-различно. Фолксономията е лъжетаксономия – произволна и  ползваща за нуждите си неконтролиран набор думи, тя не е йерархично организирана номенклатура, тя е метод за организиране на съдържанието предимно в интернет среда, а целите й са строго локални – да категоризира и прави откриваемо съдържание вътре в сайта в който е възникнала.

 

Доколкото ми е известно, най-добрия пример за фолксономия си остава популярният сред любителите-фотографи сайт Flickr ( http://www.flickr.com/ ). На практика това изглежда така: посредством интерфейса на Flickr ползувателите прикачват като етикети една или две ключови думи към отделните единици съдържание (снимки) и тези ключови думи се визуализират под формата на линкове. Именно системата от линкове прави всяка единица съдържание в сайта лесно откриваема. Нещо подобно имитирам и аз в колонката си от известно време – добавям ключова дума отстрани на заглавието с цел да ориентирам четящия в разнородността на материята която обглеждам, но моята таксономия е двойно фалшива, тъй като ключовите ми думи не само са  произволни, но и не представляват линкове.

Но да продължа с фолксономията, с нейните положителни качества и недостатъци. Полезността на фолксономията се състои предимно в нейната отвореност. Тя възниква ситуативно, от долу на горе, в процеса на обмен и работа с всичките произтичащи от това възможности за конвергенция и асоцииране на несходни на пръв поглед неща. Тя е инструмент за откриване на нови сходства, на нови неочаквани метафори и дълбини от смисъл, ставащи явни само при някоя неочаквана близост. От поетична гледна точка това е добре, но фолксономиите си имат и явни недостатъци. Те се славят с ненадеждност и непоследователност. А всичкият този meta шум, произтичащ от полисемията, синонимите и инфлексиите изпъстрящи езика ни, обременява ползувателя и намалява ефективността на търсенето на информация. Независимо от всичко, за фолксономиите може да се каже, че са един от атрибутите на web 2.0. Познатата ни от старите html сайтове йерархичната система от директории и поддиректории изчезва, за да отстъпи място на плоските омрежени структури; вече няма дървовидност, има ризоматичност; няма хаос от папки, а безотказни, спретнати бази данни. Но това е фолксономията в рамките на един сайт. Интересно е да се помисли, как тя се отнася към алгоритмите на Google за търсене на ресурси в мрежата. Фолксономиите като инструмент за търсене не са част от www протоколите и изглеждат направо подривни спрямо статуквото на търсачките в глобалната мрежа. Абстрактно погледнато обаче, Google също е основан на една широка фолксономия. Как точно? Отново чрез ключови думи. Всяка страница в мрежата е откриваема благодарение на известно количество зададени предварително ключови думи, които ние вграждаме в мета-информацията в кода на страниците си. Това са думите чрез които искаме да ни откриват в мрежата. Тези мета-данни също могат да бъдат доста произволни, но за разлика от изложената на повърхността, видима фолксономия на Фликр, остават вградени в кода и невидими за очите.
Атрибут или не на web 2.0, фолксономията вече бива обговаряна като крачка към това, което най-често се свързва с появата на web 3.0 – семантичната web, тази web, в която софтуерни агенти (ботове) ще са в състояние да реагират на смисловото съдържание на страниците, достъпно доскоро само на хората.