Goodnews.ua


Создан первый искусственный интеллект с сознанием маньяка, и ученые знают, для чего он нам нужен

Июнь 07
16:01 2018

Создан первый искусственный интеллект с сознанием маньяка, и ученые знают, для чего он нам нужен

Технологии так прочно вошли в нашу жизнь, что мы уже не представляем, как жили бы без современных гаджетов. Мы спрашиваем совета у голосового помощника, а искусственный интеллект постепенно обучается всему, что умеет человек: печь печенье, выполнять сложные расчеты и… ненавидеть. Как выяснилось, любой ИИ запросто может стать мизантропом — это напрямую зависит от того, как его тренировали.

Например, разработчики из Массачусетского технологического университета создали искусственный интеллект, названный Норманом, который мыслит как настоящий психопат, видя вокруг только разрушение, насилие и боль.

AdMe.ru расскажет вам, почему не все роботы действуют на благо человека, для чего это делается и к каким последствиям приводит.

Разрабатывая искусственный интеллект, ученые обычно говорят, что хотели бы создать машину, приносящую пользу людям или по крайней мере развлекающую их. Но для чего роботов обучают злу и жестокости? Создатели Нормана объясняют, что это делается для того, чтобы детально исследовать процесс обучения ИИ.

Норман обучался восприятию мира так: ему демонстрировали фотографии, на которых были изображены трагические события, связанные с гибелью людей. После этого робот должен был описать словами, что он видит на картинках из теста Роршаха. Одновременно с этим ученые тренировали другой искусственный интеллект, показывая ему фото с котиками, птицами и людьми.

© Norman AI Team

На этом изображении Норман увидел убийство человека на глазах у жены, в то время как «добрый» искусственный интеллект опознал это пятно как человека с зонтиком. И тот факт, что обученный на жестоких фотографиях Норман стал видеть ужасные картины повсюду, говорит об основной проблеме обучения ИИ.

По словам профессора Массачусетского университета, набор исходных данных важнее самого алгоритма. Выбор информации, используемой для тренировки искусственного интеллекта, влияет на то, как этот искусственный интеллект воспринимает окружающий его мир и к каким выводам приходит. Иными словами, если обучать ИИ плохому, то он станет плохим. Этот же факт доказывает и другая ситуация, произошедшая с ботом Microsoft.

© Microsoft Corporation

Всего за день общения с подписчиками твиттера бот по имени Тай (Tay) перестал быть дружелюбным: в его ответах пользователям появились расистские высказывания, поддержка идей Гитлера и прочие оскорбления. Бота пытались перенастроить, но внести существенные изменения в алгоритм не удалось, и все оскорбительные твиты удалили, а сам бот был отключен. Вице-президент Microsoft принес официальные извинения.

Интернет-пользователи отнеслись к извинениям лояльно. Некоторые и вовсе посчитали, что просить прощения вовсе не за что, ведь Microsoft «просто создала зеркало общества».

Что послужило причиной того, что бот всех возненавидел? Дело в том, что искусственный интеллект Тай действительно работал по принципу зеркала, анализируя прочитанные сообщения пользователей твиттера. Именно грубые сообщения, увиденные ботом, сделали искусственный интеллект расистом и ненавистником. После этого случая в Microsoft решили отказаться от тестирования ИИ на открытых площадках.

© Lucas Film / Star Wars

Опасен ли ИИ, если при определенном стиле обучения его можно настроить на ненависть? Мнения ученых на этот счет расходятся. Стивен Хокинг считал, что «появление полноценного искусственного интеллекта может стать концом человеческой расы». А вот Линус Торвальдс, программист и создатель семейства ОС Linux, напротив, не считает возможным создание ИИ, который теоретически мог бы поработить человечество. По мнению Торвальдса, максимум, на что способны подобные системы, уже реализовано в Google Now и Siri — распознавание голоса, текстовых обращений и картинок, обработка полученных данных для выполнения простых указаний.

Истина, вероятно, находится где-то между этими двумя категоричными высказываниями. Такой нейтральной позиции как раз придерживается японский специалист в области робототехники Хироси Исигуро. Он уверен, что между человеком и роботом, наделенным интеллектом, нет различий. Он приводит в пример случаи, когда конечности человека заменяются киберпротезами. Перестанет ли после этого человек быть собой? А чем он будет отличаться от робота, который изначально был создан из металла и пластика?

© Quantic Dream / Detroit: Become Human

Будто в подтверждение слов Исигуро в недавно вышедшей видеоигре для PS4 «Detroit: Become Human» как раз отражено то время, когда разумные роботы станут частью нашей жизни. Во вселенной, показанной в игре, мыслящий ИИ способен не только выполнять указания, но и чувствовать, и противостоять несправедливости, даже если для этого нужно нарушить заложенный в них алгоритм.

Как бы там ни было, до момента, когда искусственный интеллект будет наравне с человеком, а затем и превзойдет его, еще далеко. Но технологии не стоят на месте, и неважно, через 20 или 40 лет наступит этот момент. Самое важное, чему стоит уделить внимание, — это постановка правильных задач, под которые разрабатывается искусственный интеллект. Пренебрегать этим не рекомендует ни один из действующих специалистов в области разработки и обучения ИИ.

Чье мнение относительно развития искусственного интеллекта вам ближе? Верите ли вы в то, что ИИ способен навредить, или же воспринимаете подобные разработки исключительно как помощь человеку и путь к улучшению качества жизни?

Фото на превью Norman AI Team

Share

Статьи по теме







0 Комментариев

Хотите быть первым?

Еще никто не комментировал данный материал.

Написать комментарий

Комментировать

Залишаючи свій коментар, пам'ятайте, що зміст та тональність вашого повідомлення можуть зачіпати почуття реальних людей, що безпосередньо чи опосередковано пов'язані із цією новиною. Виявляйте повагу та толерантність до своїх співрозмовників. Користувачі, які систематично порушують це правило, будуть заблоковані.

Website Protected by Spam Master


Останні новини

Багатонаціональна місія з мандатом ООН могла б контролювати припинення вогню в Україні — генерал ЄС

Читать всю статью

Ми у соцмережах




Наші партнёри

UA.TODAY - Украина Сегодня UA.TODAY
Goodnews.ua