Изкуственият интелект в черно огледало

Интерактивно приложение показва как навярно ви възприемат другите, а несъвършенствата му дават важен урок


От МOVE.BG, публикувана на 10 август 2018

Нова система за изкуствен интелект открива и показва личностни характеристики на хората само на базата на снимка на лицето им. Системата е наречена „Биометрично огледало" и всъщност изследва разбирането на дадения потребител за изкуствения интелект и реакцията на информация за собствените му черти, която може да е вярна... или пък не.

Когато застанете пред биометричното огледало, системата за секунди открива набор от лицеви характеристики. После сравнява данните ви с хилядите снимки на лица, които група от респонденти предварително са анотирали.

Биометричното огледало показва 14 характеристики – от пола, възрастта и етническата принадлежност до привлекателността, странността и емоционалната стабилност. Колкото по-дълго потребителят стои пред огледалото, толкова по-лични черти се засягат.

Биометричното огледало не е инструмент за психологически анализ, а цели да провокира нелеки въпроси за границите на изкуствения интелект. Целта е да се покаже на потребителите колко е лесно да се приложи изкуствен интелект, който разграничава по неетични или проблематични начини.

Нилс Уутърс и професор Франк Ветре от университета в Мелбърн, създателите на огледалото, обясняват обосновката на техния проект и защо критичното отношение към възможностите на изкуствения интелект е толкова важна:

През 2002 г. научнофантастичният трилър „Специален доклад" ни предложи фикционализиран поглед в живота през 2054 г. Първоначално филмът пресъздава идеалното утопично общество, където изкуственият интелект (AI) e съчетан с технологията за наблюдение в името на благополучието на човечеството.

Предполага се, че изкуственият интелект предотвратява престъпления, използвайки прогнозите от трима „провидци” – тези медиуми визуализират убийствата, преди да са се случили, и полицията предприема действия въз основа на информацията.

„Провидците никога не грешат. Но понякога са на различно мнение.” Това твърди водещият учен във филма и тези разногласия водят до специални доклади – описания на алтернативни развития в бъдеще, в които често престъплението всъщност не се случва. Но тези доклади са удобно унищожени и с разгръщането на сюжета, са застрашени животите на невинни хора.

В крайна сметка филмът ни показва бъдеще, в което предсказанията са по същество ненадеждни и неефективни и си струва това да се има предвид, докато се опитваме да се справим с текущия напредък в изкуствения интелект.

„Специален доклад” може да е художествено произведение, но бързо развиващата се технология на изкуствения интелект не е. И макар в реалния свят да не са замесени медиуми, филмът подчертава ключовото предизвикателство пред изкуствения интелект и алгоритмите: какво ще стане, ако дават неверни или съмнителни резултати? И какво, ако тези резултати имат необратими последици?

Прозрачен изкуствен интелект

Индустрията и държавните органи вече поддържат и анализират големи колекции от взаимосвързани набори от данни, съдържащи лична информация.

Застрахователните компании например събират данни за здравето и проследяват поведението при шофиране, за да персонализират застрахователните такси. Правоприлагащите органи използват снимки от шофьорските книжки, за да идентифицират престъпници и заподозрени, а търговските центрове анализират чертите на лицето, за да се насочат рекламите по-добре.

Докато събирането на лична информация за изготвяне на индивидуални планове и услуги може да изглежда безобидно, тези набори от данни обикновено се анализират чрез алгоритми, подобни на „черна кутия", където логиката и обосновката на прогнозите са непрозрачни. Освен това е особено трудно да се разбере дали прогнозата се основава на неверни данни или такива, събрани незаконно или неетично, или пък такива, които съдържат погрешни предположения.

Ако пътната камера неправилно отчете, че сте превишили скоростта, и автоматично задейства отнемане на шофьорската ви книжка? Ако охранителната камера вземе ръкостискане за сделка с наркотици? Ако алгоритъмът допусне, че приличате на издирван престъпник? Представете си, че нямате контрол над алгоритъм, който погрешно решава, че не отговаряте на условията за допускане до висше образование.

Дори ако основните данни са точни, непрозрачността на процесите на изкуствения интелект затруднява коригирането на алгоритмичната пристрастност, както се вижда в някои AI системи, които са сексистки, расистки или дискриминират бедните.

Как се обжалват лоши решения, ако данните или обосновката не са налице?

Един от отговорите е да се създаде обясним изкуствен интелект, който е част от текуща изследователска програма, ръководена от доц. Тим Милър от Университета в Мелбърн, където основната мотивация за решението на AI е обяснена по начин, лесно разбираем за всички.

Друг отговор е създаването на  човешко-компютърни интерфейси, които са открити и прозрачни по отношение на предположенията, направени от AI. Ясното, открито и прозрачно представяне на способностите на изкуствения интелект може да допринесе за по-широко обсъждане на евентуалното обществено въздействие и по-информиран дебат за етичните последици от технологиите за проследяване на човешките ресурси.

Как работи „огледалото"?

За да стимулираме тази дискусия, е създадохме „Биометрично огледало".

Биометричното огледало е интерактивно приложение, което ви заснема и анализира снимката ви, за да разпознае демографските и личностни характеристики. Те включват качества като степен на привлекателност, нива на агресия, емоционална стабилност и дори „странност".

Изкуственият интелект използва отворен набор от хиляди изображения на лица и оценки, събрани чрез краудсорсинг – голям брой хора предварително са оценили доловените личностни черти за всяко от лицата. Изкуственият интелект използва този набор, за да сравни снимката ви с масива от данни от множество източници.

Биометричното огледало използва отворен набор от хиляди изображения на лица и анотации. Picture: Sarah Fisher/University of Melbourne Снимка: Сара Фишър, Университет Мелбърн

След това Биометричното огледало оценява и показва индивидуалните ви черти. След това бива избрана дадена характеристика – да речем, че нивото на отговорност – и биометричното огледало ви моли да си представите, че тази информация се споделя с някого, например със застрахователя или бъдещия ви работодател.

Биометричното огледало може да е конфронтиращо. То ярко демонстрира възможните последици от AI и алгоритмичната пристрастност и ни подтиква да мислим за пейзаж, в който правителството и бизнесът все повече разчитат на изкуствен интелект, за да взимат информирани решения.

Поверителност и масово наблюдение

Макар да изглежда така, биометричното огледало не е инструмент за психологически анализ – то само изчислява очакваното обществено възприятие за индивидуалните черти въз основа на външния вид. Така че, не би било уместно да се правят значими изводи за психичните състояния.

Това е изследователски инструмент, който ни помага да разберем как се променят нагласите на хората, докато се разкриват все повече от данните им. Поредица от интервюта с участниците стигат и по-далеч, за да разкрият етичните, социални и културни опасения на хората.

Дискусията относно етичното използване на изкуствения интелект продължава, но има спешна нужда обществеността да се включив дебата по тези въпроси. Нашето проучване има за цел да провокира трудни въпроси относно границите на AI. Чрез насърчаване на дебата за неприкосновеността на личния живот и масовото наблюдение тази дискусия ще допринесе за по-добро разбиране на етиката, която стои зад AI.

Въпреки че „Специален доклад” е само филм, тук, в реалния свят, биометричното огледало има за цел да повиши осведомеността за социалните последици от неограничен изкуствен интелект – така че фикционалното дистопично бъдеще да не се превърне в мрачна реалност.

 

Източник: Мелбърнски университет

 

тагове
Автор
още по темата

още от Актуално