Гадаене | K-33-2019

Миналата седмица стана дума за това как изкуственият интелект и невронните мрежи в частност са много добри в търсенето на модели, правенето на прогнози и взимането на решения, но основният им недостатък е тяхната непрозрачност. И докато при работа с визуални данни резултатите са относително ясни, то при текстообработка невронните мрежи се държат като черни кутии. Същото е и при обработката на медицински и банкови данни, а в тези случаи цената на погрешното решение би могла да е много висока.

Да припомня: невронните мрежи имитират структурата на човешката нервна тъкан, а модификациите, на които данните са подложени в отделните възли на тези мрежи, са микроскопични и гранулирани до такава степен, че за учените е практически невъзможно да се сдобият с представа за тях, да не говорим за неспециалистите, на които се налага да общуват с тези сложни модели, за които не знаят почти нищо!

Може ли да се направи така, че учените и изобщо потребителите да подобрят комуникацията си с автоматизираните системи за машинно обучение, за да се намали стресът и да се повиши качеството на вземаните решения?

За нови начини за обучение и комуникация с невронните мрежи се говори сериозно от Конференцията на Асоциацията за компютърна лингвистика за емпирични методи в обработката на естествените езици в Остин, Тексас, през ноември 2016 г., но истинското отваряне на черната кутия на автоматизираните системи за машинно обучение се случва едва напоследък. В доклад, представен на Конференцията на Асоциацията по изчислителна техника „Човешкият фактор в изчислителните системи”, изследователи от MIT, Хонконгския университет за наука и технологии и Университета в Жейджанг описват интерактивен инструмент, който за пръв път позволява да се види как такава система работи и който поставя анализите и контрола на методите на автоматично машинно обучение в ръцете на потребителите.

Новият инструмент, наречен ATMSeer (АТМ идва от Auto-Tuned Models – „самонастроени модели”, а seer е „пророк”), ползва на входа набор от данни, както и известна информация за задачата на потребителя. А процесът на търсене се онагледява чрез удобен интерфейс, който дава задълбочена представа за работата на модела и облекчава трудоемкия иначе процес на ръчно избиране на алгоритми за машинно обучение и настройка на хиперпараметрите[1].

Сърцевината е ATM системата, разработена през 2017 г., която, за разлика от обикновените системи за машинно обучение, напълно каталогизира всички търсения, като се опитва да напасне моделите към данните. АТМ приема като входен всеки набор от данни и кодирана задача за прогнозиране и произволно избира метода на машинно самообучение – невронни мрежи, дървета на решенията, случайна гора или логистична регресия – и хиперпараметрите на модела, например, размера на дървото на решенията или броя пластове на невронните мрежи. След това системата изпълнява модела спрямо набора от данни, настройва хиперпараметрите и измерва производителността. Това, което е научила за изпълнението на един модел, системата използва, за да избере друг модел и т.н., докато изведе най-ефективния за дадена задача.

Трикът в случая е, че всеки модел по същество се разглежда като една контролна точка от данни с няколко променливи: алгоритъм, хиперпараметри и производителност. Основавайки се на това, изследователите са проектирали система, която онагледява данните и променливите в графики и карти, а оттам – и отделна техника, която позволява преконфигурирането на тези онагледени данни в реално време. Или, както казват хората от екипа, разработил ATM: „всичко, което можете да онагледите, можете и да промените“.

Обикновено подобни инструменти за визуализация са пригодени за анализиране само на един специфичен модел за машинно обучение и приложението им е доста ограничено, но с ATMSeer това вече е възможно и за модели, генерирани с различни алгоритми.

Може би това, което предстои оттук нататък, наистина е не само подобряване на работата на изкуствения интелект, но и изобщо повишаването на доверието на хората в машините.

–-

[1] При машинното обучение хиперпараметърът е този, чиято стойност се задава преди започването на учебния процес. Обратно, стойностите на други параметри се получават чрез обучение.

Анатомия на изкуственото | K-32-2019

От 10 години насам изкуственият интелект постоянно присъства в живота ни, като се почне от смартфоните с речево разпознаване и автоматичните преводи на гугъл и се свърши с чат-ботовете по разните сайтове за електронна търговия. Вездесъщността на изкуствения интелект създава усещането, че всички са наясно с анатомията му, но дали наистина е така? Дали всички са наясно с връзката между понятията „изкуствен интелект”, „невронни мрежи” и „дълбочинно обучение”, които често срещаме заедно?

Трите понятия могат да бъдат обединени в едно изречение ето така: дълбочинното обучение е новото име на един не чак толкова нов подход към изкуствения интелект, познат като невронни мрежи.

Ако все още звучи мъгляво, ето малко история: за пръв път за невронни мрежи става дума в далечната 1944 г. Заслугата е на Уорън Макълоу и Уолтър Питс от Чикагския университет, които впоследствие (през 1952) се преместват в Масачузетския технологичен институт, за да основат първия в света отдел за когнитивни науки. Макълоу и Питс се заемат да докажат, че човешкият мозък може да се възприеме като изчислително устройство и че човешките невронни мрежи де факто вършат същата изчислителна работа, която вършат и кибернетичните машини. Тоест, в началото става дума повече за невронаука, за изследване дейността на мозъка и неговите функции посредством емулиране на тази дейност от машини, отколкото обратното – за компютърна наука, която се развива въз основа на познанията в друга област – невронауката.

Така, чрез наблюдения на човешката невроанатомия, на трасетата и правилата за регулиране и обработка на информация от мозъка, както и чрез опити за машинно възпроизвеждане на човешките характеристики, през 1957 г. се стига до първата демонстрация на невронна мрежа от психолога на Корнелския университет Франк Розенблат, наречена Perceptron.

Вече е ставало дума как чрез невронните мрежи компютърът се обучава да изпълнява някаква задача и че това обучение се състои в анализиране на примери, подбрани и етикирани ръчно. Благодарение на хиляди изображения на коли, например, етикирани като „коли”, машината успява да си създаде представа за това що е то „кола” и да я разпознае.

В Perceptron това се случва по елементарен начин – в един слой възли, разположен между два други слоя – един входен слой, през който постъпват данните, и един – за изходния резултат. Данните се движат само в една посока, но тъй като отделен възел от невронния слой може да бъде свързан с няколко точки от слоя над него, броят комбинации е значителен. Този брой входящи връзки на даден възел се обозначава с число, наречено „тегло“. Когато мрежата е активна, всеки един възел получава от всяка от връзките различни данни с различни стойности, които биват умножени по съответното тегло. След това получените стойности се събират и се получава една стойност, която, ако е под някакъв предварително зададен праг, възелът не предава данни нататък. Perceptron е първата невронна мрежа, ползваща стойностите за „тежест” и „праг”, но поради нейната елементарност е и доста неефективна; факт е обаче, че през 1969 г. се появява междинна област, обединяваща компютърната наука и невронауката в обща дисциплина, а заслугата за това е на математиците от Масачузетския институт Марвин Мински и Сиймор Папърт, които създават първата Лаборатория за изкуствен интелект.

И все пак, кое предизвика бума в развитието на невронните мрежи през последното десетилетие? Предизвика го нуждата на игровата индустрия от по-мощен хардуер. Появиха се графичните процесори (graphics processing unit – GPU). Това е един-единствен чип, който побира хиляди относително прости изчислителни ядра, чиято архитектура твърде напомня тази на невронните мрежи. Така, ако през 60-те един графичен процесор би съдържал един слой невронна мрежа, а през 80-те два или три слоя, то днес говорим за десетки слоеве мрежи и това е, което определя и дълбочината на обучението всъщност.

И ако тепърва не предстои еуфорията от превръщането на смартфоните ни в „интелигентни телефони“, остават актуални и някои тревоги, свързани с непрозрачността на невронните мрежи, заложени в интелигентността им, както и опасението, че изкуственият интелект, ако и да не е в състояние да измести човека от всички сфери на дейност, съвсем в състояние е да се освободи от неговия контрол.

Дезорганизирани машини | Култура – Брой 15 (2717), 21 април 2010

“Поредната крачка към анихилацията на човешкостта” – това е леко попресиленото резюме на една скорошна статия в технологичния сайт The Register, посветена на изкуствено създадените заместители на синапсните клетки в мозъка на висшите бозайници, мемристорите. Тези заместители са съпротивления от най-ново поколение, а наименованието им – неологизъм, съчетаващ думите memory (памет) и resisstor (съпротивление). Конструирани са от Вей Лю от Мичигънския университет в резултат на поредния, вдъхновен от биологията, компютърен проект. Историята им обаче съвсем не е нова. През 1960 станфордският професор Бърнард Уайдроу е успял да конструира прост аналог на изкуствена невронна верига, така наречения ADALINE (от Adaptive Linear Neuron), а наименованието си са получили десетилетие по-късно в Бъркли, Калифорния, от учения Леон Чуа. Самата концепция пък за съвкупност от случайно свързани бинарни невронни вериги, работещи като опростен модел на човешката нервна система, принадлежи на Алън Тюринг, който още през 1948 е изказал хипотезата за т. нар. “дезорганизирана машина”. Далеч преди техническата възможност такава машина да бъде конструирана, той е допуснал съществуването на клас устройства, които са до голяма степен хаотични в своята структура, но са способни да извършват полезна дейност след преминаване на етап на обучение, наподобявайки с поведението си кортекса на детския мозък.
Защо и най-мощният суперкомпютър не е в състояние да извършва със задоволителна скорост елементарни дейности като разпознаване на лица, например? Къде се крие причината за това превъзходство на природата над творенията на човека? Очевидно, тайната на бързината на мозъка се крие в хаотичността на анатомията му, в “безразборно” свързаните в синапсна мрежа неврони, в противовес на линейните паралелни потоци в паметта на машините. Ако в резултат на тези хаотични синапсни “суичове” котешкият мозък разпознава лица 83 пъти по-бързо, отколкото суперкомпютър, разполагащ с десетки хиляди процесорни ядра, то можем ли да си представим гъвкавостта на връзките в мозъка на зрял човек?
Устройството на невроните и по-специално механизмът на синапсните връзки е отдавна известен. Цялата ни нервна дейност зависи от преноса на електрически заряд благодарение на преминаването на йони от цитоплазмата на една нервна клетка в тази на друга. Както може да се очаква, обменът на този заряд не се случва линейно, а във всички посоки, което е и от съдбовна важност за бързината на преноса на информация, респективно на неосъзнатите ни защитни реакции, една от които и разпознаването на лица.
Синапсните връзки между невроните в мозъка обаче имат и друга интересна особеност и тъкмо тя е от съществена важност за откритието на Вей Лю. Тези връзки стават повече или по-малко устойчиви в зависимост от времевата пауза между отделните дразнения на клетките и привеждането им във възбудено състояние. Колкото по-начесто и по-интензивно е стимулирана дадена синапсна връзка, толкова по-голяма е проводимостта й за електричеството, преминаващо през нея, и следователно по-здрава. На това е основана и дълготрайната памет у бозайниците. Лю е установил, че същото поведение имат и изкуствените невронни мрежи, изградени от мемристори. Той казва: „Клетките, възбудени заедно, провеждат електричество заедно…” Според експеримента, един интервал от 20 милисекунди между възбуденото състояние на две полупроводникови вериги причинява ниво на съпротивление, наполовина по-малко от това, създадено от интервал с продължителност 40 милисекунди.
Чрез ритмичното подаване на волтаж може постепенно да бъде увеличавана или намалявана електропроводимостта на системата от мемристори. “Подобни промени в синапсната проводимост на нашия мозък, твърди Вей Лю, съществено влияят на дългосрочната ни памет.“
Тук по-песимистичните сред нас наистина биха могли да се запитат: на какви ли намеси тепърва ще се наложи да устоява човешкият мозък? И какво ли ще се случи с човешкостта изобщо, ако най-важният й атрибут, паметта, бъде присвоен на машина?