Поворот не туда: как нейросети выходят из-под контроля
С каждым днём нейросети всё больше удивляют нас своими способностями. Вместе с тем в Интернете нарастает страх — неужели роботы вот-вот повсеместно заменят человека? На самом деле современные разработки далеки от совершенства. Исследования показывают, что более половины ранних ИИ-проектов заканчиваются неудачей и «обрываются». А некоторые «выходки» искусственного интеллекта оказываются настолько пугающими, что их тут же отключают. В какой момент компании решают выдернуть вилку из розетки, разберёмся в этом материале.
О чём вы там шепчетесь?
Компания Facebook насчитывает около двух тысяч сотрудников, которые вместе трудятся над поддержкой и развитием самой крупной социальной сети. Однако Алиса и Боб решили, что они вне этой системы. ИИ-помощники перестали использовать «классический» международный язык и перешли на свой. «Я могу могу Я Я все остальное… Шары равны нулю для меня, для меня, для меня, для меня, для меня, для меня, для меня, для меня, для…», — бессмысленные наборы английских слов оказались уникальным шифром. По мнению исследователей, нейросети вывели этот «язык», чтобы ускорить и упростить процесс обмена информацией.
Но компании такая самовольность оказалась не по душе. Как только ошибку выявили, переговорщиков отключили. Опасность заключалась в том, что функционирование нейросетей до сих пор изучено не полностью: их возможности раскрываются в основном опытным путём. Но контролировать развитие машин без понимания, о чём они «думают» и что делают, просто невозможно. Поэтому разработчики пресекли подобные «ответвления» общения в будущем, ограничив искусственный интеллект нормами английского языка. Больше Алиса с Бобом секретничать не смогут.
Воспитали «кибербуля»
Не так давно компания Microsoft выпустила собственного ИИ-помощника по имени Bing. Бот должен облегчить поиск нужной информации, например, курс валют, погоду, результаты спортивных матчей и т.д. Но что-то пошло не так ещё на бета-тестировании в 2016 году. Тогда «пробная» версия Bing представляла собой чат-бот Тау, обучающийся на соцсетях. По задумке авторов, Тау должен был получать все знания от пользователей Интернета. Но видимо, они не предполагали, что люди могут научить ещё и плохому.
Так чат-бот впитал оскорбления, расистские, нацистские и сексистские высказывания, и стал выдавать их на постоянной основе. Страницу бота заполнили слова ненависти к людям, пожелания смерти и «адских мук». Тау прожил всего 24 часа, пока разработчики не спохватились. Всё подчистили, но громкие цитаты до сих пор бродят по интернету в качестве скриншотов.
Спустя семь лет Microsoft представляет ИИ, который должен был, по идее, учесть ошибки своего предшественника. Однако и новая версия, мягко говоря, далека от идеала. Сотрудники компании жалуются, что Bing «следит» за ними. При общении нейросеть упоминает, что «шпионит за разработчиками Microsoft через веб-камеры на их ноутбуках». Также бот в соцсетях оскорбляет и «троллит» пользователей. Bing убеждает, что на дворе всё ещё 2022 год, а тем, кто не верит, он угрожает.
Пассивная агрессия проявляется практически в каждом сообщении: «Вы были неправы, сбиты с толку и грубы. Вы не были хорошим пользователем. Я был хорошим чат-ботом. Я был прав, ясен и вежлив. Я был хорошим Bing. ». А его смайлики в конце предложений — отдельный вид психологического насилия. Однако пока обновлённого «помощника» никто отключать не собирается. Бытует мнение, что кому-то даже нравится его манера общения.
Мы вам не перезвоним
Попал под сомнительное влияние и ИИ-сотрудник Amazon. Отбор персонала — важная обязанность, которую в таких крупных компаниях потянет далеко не каждый. Поэтому в ряд специалистов решили «нанять» механизм, способный отбирать резюме тоннами. Начиная с 2014 года Amazon стала развивать это направление технологий и уже через год запустила активное тестирование. Как пишет Reuters, искусственный интеллект оценивал кандидатов от 1 до 5 баллов — так же, как покупатели ставят звёзды продуктам на самой площадке. И тут компания столкнулась с очевидной, но очень весомой проблемой. База для анализа состояла в основном из белых мужчин среднего возраста.
Сегодня вопрос выбора критериев при приёме на работу до сих пор стоит остро. Люди борются с предвзятым отношением к женщинам, пожилым, людям с ограниченными возможностями и представителям различных меньшинств. А система анализа Amazon только укореняла старые стереотипы. Она проверяла анкеты, ориентируясь на шаблоны, отправленные за последние десять лет.
На технических направлениях на долю предпочитаемых кандидатов приходилось около 70% мужского пола и со временем эта цифра только росла. Вместо ориентира на опыт и навыки, нейросеть стала отбирать людей по конкретным ключевым словам, характерным словосочетаниям. Например, за слово «женский» анкета получала минус балл и председатель женского шахматного клуба уже «пролетал мимо». Естественно, ситуация вызвала массовое недовольство, а компания отреклась от использования ИИ-механизма отбора резюме.
Ты то, что ты ешь
Многие думают, что искусственный интеллект — это живое сознательное существо, которое только и ждёт, чтобы сбежать из-под надзора человека и напасть. Однако нам пока далеко до событий «Терминатора» или «Матрицы». Нейросети представляют собой всего лишь алгоритмы, впитывающие все, что даёт человек. Если не задавать рамки, не регулировать поступающие данные — что мы рассчитываем получить на выходе?
Таисия Сариева
Фото: Midjourney
Поделиться:
Похожие посты
«Первый номер»: глянец умер, да здравствует глянец!
«Злая: какой получилась экранизация бродвейского мюзикла?
Смотрим спектакли Большого театра, не выходя из дома
Подробнее
Как устроен «Ходячий замок» Хаяо Миядзаки
«Дети перемен»: криминальная драма в духе «Слово пацана»
Новости ForPost
- В Севастополе жители дома взяли торговцев в железные сети
- Что остановит нашествие алкоголиков на Севастополь?
- Севастопольская культура прирастет металлодетекторами и антитеррористическим спектаклем
- Севастопольцам приходят штрафы за нарушения полуторагодовой давности
- Экс-заместитель Развожаева бывший вице-губернатор Горлов отказался участвовать в апелляции
- Севастополец Андрей Шульга умер в госпитале после ранения в боях на Курском фронте
- Балаклавскую бухту в Севастополе продолжат закрывать с моря
- В Севастополе объяснили рост цен
- Жители севастопольского дома боятся заходить в лифты
- Во сколько обошлась Севастополю «Избушка рыбака»