Този сайт използва „бисквитки“ (cookies). Разглеждайки съдържанието на сайта, Вие се съгласявате с използването на „бисквитки“. Повече информация тук.

Разбрах

Как онлайн ботовете ви подвеждат

Интелигентните машини, които могат да се представят за хора, са отдавнашна мечта, но всъщност са вече сред нас
Интелигентните машини, които могат да се представят за хора, са отдавнашна мечта, но всъщност са вече сред нас

Понякога перспективата за секс ви подвежда. Те изглеждат мъдри, приятелски настроени или просто забавни. Ботовете всъщност не се вълнуват как ви подвеждат - единствената им цел е да ви накарат да мислите, че са хора.

Ако използвате често социални медии и прекарвате достатъчно време онлайн, вероятно вече сте станали тяхна жертва

Миналата седмица се появи спорно твърдение, че бот е издържал теста на Тюринг в Кралското научно общество в Лондон. На серия от текстови комуникации компютърна програма, наречена Eugene Goostman, е убедила журито, че е 13-годишно украинско момче, издържайки стандартизирани тестове за изкуствен интелект, предложени години по-рано от Алън Тюринг.

Дали това събитие възвестява ерата на човекоподобния изкуствен интелект (ИИ), както се твърди? Не съвсем. Тестът на Тюринг спря да бъде важен за изследванията на ИИ преди години, а много учени възприемат подобни състезания като несъвършени, защото те могат да бъдат спечелени с трикове - като например претендиране, че родният език на ИИ не е английски.

Вече сме заобиколени от ботове, които могат да ни убедят, че са истински хора, а те дори не участват в състезания - и са много по-способни от това. Някои от тях са достатъчно сложни, за да проникват в социалните мрежи и дори да влияят на общественото мнение. И определено не са малко.

Макар повечето хора да смятат, че интернет е място, основно населено от хора, реалността е доста различна. Скорошен доклад констатира, че 61.5% от Интернет трафика се генерира от автоматични програми, наречени ботове.

Клопка за похотливи наивници

Ботовете, които е най-вероятно да ни заблудят, използват колоритни трикове, обяснява Ричард Уолъс от Pandorabots, разработчици на чатботове за обслужване на клиенти и други цели. Уолъс е създателят на бот на име Alice, който трикратно е печелил наградата "Льобнер" - състезание подобно на теста на Тюринг, в което чатботове се стремят да убедят журито, че са хора.

"Най-умелите автори на такива ботове не са компютърни програмисти, а хора с творчески професии," казва Уолъс. "Това е решаващото при създаването на убедителен чатбот - писане на отговори, които са убедителни, забавни и ангажиращи", допълва той.

Измамниците са наясно с този феномен. Фирмата за сигурност Cloudmark документира възхода на флиртуващ бот на име "TextGirlie". След като се снабдява с името и телефона на жертва от социални мрежи, TextGirlie изпраща персонализирано съобщение, приканващо към продължаване на разговора в онлайн чат. След няколко изпълнени с кокетничене диалози, жертвата бива приканена да кликне на връзка към сайт за запознанства или уеб камери.

Cloudmark твърдят, че около 15 млн. първоначални текстови съобщения са били изпратени до мобилни телефони от TextGirlie - и те потвърждават, че измамата е действала в продължение на няколко месеца. Според експерта по сигурност във фирмата Ендрю Конуей, това е ясен показател, че атаката поне в някаква степен е била успешна.

Автоматизирана измама

Хората е по-вероятно да бъдат подведени от бот в ситуация, когатоочакват странно поведение или неправилен английски. През 1971 г. психиатърът Кенет Колби е успял да убеди няколко свои колеги психиатри, че разговарят с пациент чрез компютърен терминал, докато всъщност просто насреща е била програма, симулираща речта на човек, страдащ от параноидна шизофрения.

Доста по-скоро, през 2006 г., психологът Робърт Ъпстейн бе подведен от интелигентно програмиран компютър, преструващ се на влюбена в него рускиня. Напоследък ботовете се изявяват в сайтовете за запознанства в огромни количества, увличайки все повече злочести необвързани мъже в автоматизирани измами.

Понякога ботовете успяват да подлъжат дори умелите потребители. Бърди Яворски знае какво е усещането. Тя е опитен потребител на Reddit и фен на цифровата валута dogecoin. Потребител на име "wise_shibe" наскоро се е появил в Reddit форум за почитатели на dogecoin и пускал иронични коментари в стила на стари поговорки.

"Нещата, които той казваше, звучаха като фрази от Конфуций," спомня си Яворски.
Тези коментари дори започват да носят на wise_shibe пари, тъй като потребителите на форума могат да изпращат малки "бакшиши" в цифрова валута един на друг, ако харесват публикуваните мнения. Публикациите на wise_shibe са популярни, така че той е затрупан от бакшиши.

Нещата обаче скоро започват да изглеждат подозрително: акаунтът е активен по всяко време на деня и в крайна сметка започва да се повтаря. Когато wise_shibe е разкрит като бот, реакциите на членовете на форума са противоречиви. Някои са вбесени, докато други казват, че нямат нищо против. Яворски казва, че му е било забавно, но все пак се е почувствал измамен. "Изведнъж осъзнаваш, че един бот е събрал сериозна сума пари," казва тя.

Фантомните туитове

Ако присъствието и взаимодействията на бота изглеждат достатъчно естествени, то в повечето случаи дори не се съмняваме, че той е истински човек - просто приемаме изначално, че е такъв. За Фабрицио Беневенуто този феномен е обект на сериозни изследвания. Наскоро той и трима други учени публикуваха доклад, обясняващ колко лесно е да бъде напълнен Twitter със социални ботове, стига те да изглеждат и да се държат като реални Twitter потребители.

Беневенуто и колегите му са създали 120 бот-акаунти, уверявайки се, че всеки от тях има убедителен профил със снимка и атрибути от рода на пол. След месец те установяват, че почти 70% от ботовете не са открити от механизмите на Twitter за разпознаване на ботове. Нещо повече, те са програмирани да взаимодействат с други потребители - и бързо си печелят приличен брой последователи - сумарно около 5000.

Последиците от този факт не са маловажни. "Ако социални ботове могат да се създават в големи количества, те може потенциално да бъдат използвани за оказване на влияние върху общественото мнение, се пишат многобройни фалшиви съобщения и некоректно се подобрява или влошава възприятието за дадена тема от общността," отбелязва докладът.

Това е проблем, известен като „астротърфинг", при който привидно истинска вълна от доброволческо мнение всъщност се създава от батальон ботове, работещи за дадена кауза. Потенциалът на астротърфинга за повлияване на избори вече е предизвикал немалко опасения, като редакционен коментар на Reuters през януари призова за забрана върху употребата на ботове от кандидати в навечерие на избори.

„По-сложни и съвременни технологии"

Последиците от астротърфинга са толкова сериозни, че американското Министерство на отбраната се включи във финансирането на разработката на софтуер, определящ дали определени Twitter акаунти се управляват от ботове. Приложението, наречено BotOrNot, е публично достъпно онлайн и осигурява предиктивен анализ на база активността в акаунта и семантиката на туитовете, показваща дали зад акаунта стои човек или не.

Ръководителят на проекта Емилио Ферара обаче признава, че най-вероятно системата вече е остаряла. Тя е базирана върху данни от Twitter отпреди 3 години, така че вероятно най-добрите съвременни ботове биха минали безпроблемно през филтъра й.

"Сега ботовете са по-сложни и комплексни," казва той. "Те са по-добри в прикриване на същността си и изглеждат повече като хора. Задачата ни става все по-трудна - не знаем дори доколко точна е системата в откриването на най-новите и комплексни ботове."

Възходът на ботовете изглежда ще продължава - с или без одобрението на теста на Тюринг. За Фриц Кунце от Pandorabots надеждата е, че хората ще станат по-умели в разговорите с изглеждащи невинно потребители, свързващи се с тях онлайн, така че да не бъдат лесно заблудени. Той обаче също ясно съзнава колко трудна ще става тази задача в близкото бъдеще.

"Това вероятно ще е голям шок за повечето хора," казва той.

А тези ботове ще бъдат наистина много добри - особено добри в подвеждането на хора.

 

Най-четените