Този сайт използва „бисквитки“ (cookies). Разглеждайки съдържанието на сайта, Вие се съгласявате с използването на „бисквитки“. Повече информация тук.

Разбрах

Защо създателите на изкуствен интелект трябва да са по-параноични

Нов доклад предупреждава, че престъпници и терористи могат да използват ИИ за злонамерени цели. Снимка: Pixabay
Нов доклад предупреждава, че престъпници и терористи могат да използват ИИ за злонамерени цели.

Животът е станал много по-удобен от 2012-а насам. Тогава пробивът в сферата на машинното обучение даде началото на трескава вълна от инвестиции за създаването на изкуствен интелект, която продължава и до днес. Разпознаването на говор, например, в повечето случаи вече работи, а освен това можете да отключите новия iPhone с лицето си.

Хората с уменията да изграждат подобни системи извличат огромни изгоди - те са се превърнали в най-желаните кадри в технологичния бранш. Но нов доклад за минусите от развитието на изкуствен интелект (ИИ) предупреждава, че тези специалисти трябва да обръщат повече внимание на тежкото морално бреме, което работата им носи.

99-страничният документ изрежда неприятен и на места дори зловещ списък от злонамерени употреби на технологиите, свързани с изкуствения интелект.

Докладът призовава за спешна дискусия за това как може да се злоупотребява с ИИ технологията. Примерните ситуации включват почистващи роботи, които да се използват за убийство на политици, или престъпници, стартиращи автоматични и силно персонализирани фишинг кампании.

Едно от предложените решения за защита срещу такива опасности е изследователите на ИИ да станат по-параноични и да разкриват по-малко за работата си. Докладът казва, че хора и компании, работещи в областта на ИИ, трябва да обсъждат създаването на предпазни мерки срещу престъпници или терористи в технологията си - и дори да се въздържат от публично разпространение на определени идеи или инструменти.

Новият доклад е подготвен от повече от 20 автори от институции като Оксфордския и Кеймбриджкия университети, финансирания от Илон Мъск институт OpenAI, групи за защита на дигитални права като Electronic Frontier Foundation, компанията за компютърна сигурност Endgame и мозъчният тръст Center for a New American Security.

Етиката се превърна в основна тема за дискусии в областта на машинното обучение през последната година. Дискусията донякъде беше провокирана от това, че властите започнаха да използват алгоритми за вземане на решения, които засягат гражданите (например, обвиняемите в наказателни дела), както и от инциденти, в които системи с машинно обучение демонстрират тенденциозност и предубеденост.

Наскоро се наложи Microsoft и IBM да “преобучават” своите услуги за анализ на лица, които двете компании продават на бизнеса. Причината беше, че услугите бяха осезаемо по-неточни в идентифицирането на пола на хора с по-тъмна кожа.


Изпълнителният директор на Alibaba Джак Ма демонстрира система за лицево разпознаване. Снимка: Getty

Сегашният доклад се занимава повече с физическата вреда, която може да възникне в резултат от развитието на възможностите и увеличаването на разпространението на ИИ софтуера.

Например, в самоуправляващите се коли или софтуера, който може да автоматизира сложни офисни задачи. Докладът предупреждава, че подобни системи могат лесно да бъдат модифицирани за престъпни или дори фатални цели.

Компрометиран самоуправляващ се автомобил, например, би могъл да бъде използван за доставка на експлозиви или за умишлено предизвикване на катастрофа. Работата по създаването на софтуер, способен да хаква друг софтуер, например разработките, финансирани от Пентагона, може да помогне на престъпниците да въведат в употреба по-мощни и адаптиращи се зловредни програми.

Какво може да се направи по този въпрос? Основната препоръка на доклада е хората и компаниите, разработващи ИИ технологии, да обсъждат безопасността и сигурността по-активно и открито - включително и с политиците. Документът също така приканва изследователите на ИИ да мислят по-параноично и преди да пуснат свои технологии за масова употреба да да преценяват как врагове или терористи биха могли да приложат тези технологии за други цели.

Ако наистина бъдат възприети, тези препоръки ще сложат край на необичайната откритост, която се е превърнала във фундамент на изследванията на ИИ. Конкуренцията за таланти е накарала компании като Amazon, Microsoft и Google, които обикновено държат на потайността, открито да публикуват изследвания и инструменти за вътрешна употреба под формата на отворен код.

Шахар Авин, водещ автор на новия доклад и изследовател в Центъра за изследване на екзистенциалния риск към Кеймбриджки университет, казва, че невинния подход в тази област е останал като наследство от десетилетия на прекалено смели обещания за ИИ,  които така и не са дали резултат.

“Хората в ИИ бранша обещават твърде много и постоянно не изпълняват обещаното”, коментира той. “Този път е различно, и вече не можем да си затваряме очите”.

Авторите на доклада признават, че разграничението между това какво трябва и какво не бива да се публикува, е трудна задача. В документа обаче се твърди, че области като компютърната сигурност, биотехнологиите и отбраната са показали ясно, че е възможно да се създават и налагат норми за отговорно разкриване на опасни идеи и инструменти пред обществото.

Авин твърди, че в някои случаи ИИ общността е много близо до границата. Той изтъква изследвания на Google за синтезиране на крайно реалистични гласове. В контекста на начина, по който руски агенти се опитаха да манипулират президентските избори в САЩ през 2016-а, изследвания, които биха спомогнали за създаването на фалшиви новини, би трябвало да бъдат съпътствани от дискусии за инструментите, които биха послужили като защита срещу тях, заявява той. Това може да включва методи за разпознаване или маркиране на синтезирани аудио или видео данни, казва Авин. Google се въздържат от коментар по темата.

Интернет компаниите, включително Reddit, вече се борят с фалшиви порно-видеа, манипулирани така, че да включват генерирани образи на знаменитости, създадени чрез софтуер за машинно обучение с отворен код на име Deepfake.

Някои хора, работещи в областта на ИИ, вече се опитват да отворят очите си - както и тези на бъдещите ИИ експерти - за възможната вредна употреба на технологиите, които те създават.

Йон Стоица, професор в Калифорнийския университет “Бъркли”, който не е участвал в подготовката на доклада, казва, че си сътрудничи по-активно със свои колеги в областта на компютърната сигурност. Той е водещ автор на друго скорошно изследване на техническите предизвикателства около изкуствения интелект, в което като основни теми за изследвания и безпокойство са посочени сигурността и безопасността.

Стоица казва, че “Бъркли” също така се опитва да изтъкне тези рискове пред студентите и дипломантите, ориентиращи се към курсове по ИИ и машинно обучение. Професорът е оптимист, че областта, преди основно концентрирана върху открития и нови изследвания, може да възприеме добрите практики на тези, които създават технологии за бизнеса и масовите потребители, или сред строителите на мостове или конструкторите на самолети.

“Опитваме се да превърнем машинното обучение в по-инженерна дисциплина”, заявява Стоица. “Има голяма пропаст в това отношение, но мисля, че вървим към преодоляването ѝ”.

 

Най-четените