Legatus

Ученые рассказали о негативных последствиях внедрения ИИ

Август 02
10:09 2018

Когда люди думают об искусственном интеллекте, первыми приходят на ум убийцы-андроиды и компьютерные мошенники. Голливудские фильмы, такие как "Бегущий по лезвию" и "Терминатор", внушили нам чувство страха, что ИИ может пойти против людей.

Для отрасли, которая могла бы генерировать более 1 трлн долларов в этом году и почти 4 трлн долларов к 2022 году, любые этические сомнения могут иметь серьезные последствия.

ИИ – популярное выражение, часто встречающиеся в бизнес-сфере и в средствах массовой информации. Искусственный интеллект влияет на множество отраслей – особенно на те, где задействован физический и ручной труд.

На сегодняшний день большинство компаний инвестируют в ИИ, однако многие убеждены, что мало внимания уделяется более широким социальным и моральным последствиям технологий.

В CNBC составили пять самых страшных сценариев будущего для искусственного интеллекта.

1.jpg (70 KB)

Массовая безработица

Главный страх аналитиков и работников: ИИ приведет к массовой глобальной безработице, поскольку рабочие места становятся все более автоматизированными, а человеческий труд больше не требуется.

"Потеря рабочих мест, пожалуй, самая большая проблема", — заявил профессор Эдинбургской школы информатики Алан Банди. По его словам, это основная причина роста популизма во всем мире – примерами являются выборы президента Дональда Трампа и решение Великобритании выйти из Европейского союза.

Сторонники искусственного интеллекта убеждены, что технология приведет к созданию новых видов рабочих мест. Кроме того, люди будут использовать ИИ для выполнения ежедневных задач.

Согласно прогнозу исследовательской фирмы Gartner, искусственный интеллект создаст 2,3 млн рабочих мест, а уничтожит – 1,8 млн. Так, количество профессий вырастет к 2020 году на 500 000. По данным отчета Оксфордского университета 2013 года, под риск попадают брокеры, кассиры банков, страховщики и налоговики.

Хотя, утверждают эксперты, можно свести к минимуму ущерб, наносимый рынку труда ИИ, путем повышения квалификации и создания новых рабочих мест — и, возможно, даже введения гарантированного базового дохода.

2.jpg (59 KB)

Война

Появление так называемых "роботов-убийц" и других применений ИИ в военном деле беспокоит экспертов — технология может закончиться войной.

Исполнительный директор Tesla Илон Маск в прошлом году предупредил, что технология может привести к Третьей мировой войне. Некоторые аналитики и участники кампании утверждают, что развитие смертоносного автономного оружия и использование ИИ в армии создает множество этических дилемм.

Существует даже общественная организация, которая занимается запретом таких машин. Кампания "Остановить роботов-убийц", созданная в 2013 году, призывает правительства предотвратить развитие беспилотных летательных аппаратов и других транспортных средств.

"Единственная область, где применимо слово "страшно" – это автономные комплексы вооружения. Любая компьютерная система, которая автоматически решает вопросы жизни и смерти — например, запуск ракеты — действительно страшная идея", — прокомментировал исследователь искусственного интеллекта в Амстердамском свободном университете Франк ван Хармелен.

Ранее в этом году Rand Corporation в своем исследовании предупредили, что использование ИИ в военных целях может привести к ядерной войне к 2040 году: ошибка ИИ в анализе военной ситуации может привести к принятию опрометчивых и катастрофических решений.

Эти опасения возникли в связи с печально известным инцидентом в 1983 году, когда бывший советский военный офицер Станислав Петров предотвратил ядерную войну после ложного срабатывания системы предупреждения о ракетном нападении со стороны США.

3.jpg (78 KB)

Роботы-врачи

Большинство экспертов согласны с преимуществами ИИ в области здравоохранения, например, с ранним диагностированием болезней, однако некоторые врачи и ученые с осторожностью относятся к этому.

Один из страхов исследователей: люди ожидают слишком многого от ИИ, полагая, что технология сможет решить широкий круг задач.

"Все применения ИИ на сегодняшний день невероятно успешны, но в очень узком диапазоне. Приложение для медицинского диагноза, которое отлично справляется с проблемами сердца, может диагностировать больному раком какую-то редкую проблему сердца", — сообщил Банди. По его словам, эти ожидания могут иметь потенциально опасные последствия для такой отрасли, как здравоохранение.

Только на прошлой неделе в докладе Stat сообщалось, что суперкомпьютер IBM Watson сделал несколько "небезопасных и неправильных" рекомендаций по лечению рака. Согласно этой статье, программное обеспечение было подготовлено только для рассмотрения небольшого числа случаев и гипотетических сценариев, а не фактических данных пациента.

"Мы создали Watson Health три года назад, чтобы использовать ИИ для решения самых больших проблем в здравоохранении, и мы довольны прогрессом. Наши предложения по онкологии и геномике используют 230 больниц по всему миру. Мы улучшили Watson Health, основываясь на постоянной обратной связи с клиентами, новых научных данных, раковых опухолях и альтернативах лечения", — заявили в пресс-службе IBM.

Еще одна проблема заключается в том, что объем данных, охватываемых и используемых компьютерами, а также алгоритмы, которые автоматизируют приложения с использованием этой информации, могут иметь этические последствия для пациентов в вопросе конфиденциальности.

Феномен больших данных позиционируется как прорыв для выявления различных заболеваний. Однако опасения по поводу того, сколько данных хранится и где они находятся, небезосновательны.

Примером является DeepMind, принадлежащая Google. Национальная служба здравоохранения США подписала соглашение с компанией в 2015 году, предоставив ей доступ к данным о состоянии здоровья 1,6 миллиона британских пациентов. Таким образом, пациенты передавали свои данные DeepMind для улучшения возможностей программ обнаруживать болезни. Это привело к созданию приложения под названием "Streams", предназначенного для наблюдения за пациентами с заболеваниями почек и предупреждения врачей об ухудшении состояния больного. В прошлом году Управление Комиссара по информации постановило, что контракт между NHS и DeepMind "не соответствует закону о защите данных".

4.jpg (103 KB)

Массовый надзор

Эксперты также опасаются, что ИИ может использоваться для массового наблюдения. В Китае этот страх, похоже, становится реальностью. Китайские правительственные организации используют технологию распознавания лиц и искусственный интеллект для пресечения преступлений.

Согласно данным отчета New York Times, опубликованному в начале этого месяца, в Китае в настоящее время установлено около 200 миллионов камер видеонаблюдения. Это также единственная страна в мире, внедряющая "систему социального кредита", которая отслеживает деятельность граждан по их оценкам.

Китай, который стремится стать мировым лидером в области ИИ к 2030 году, хочет повысить стоимость IT-сектора до 146,6 млрд долларов.

Одна из ведущих компаний по разработке технологии распознавания лиц – SenseTime. Это самый дорогой стартап в мире, оцениваемый в 4,5 млрд долларов. SenseTime предоставляет свои услуги властям Гуанчжоу и Юньнань. Согласно информации SenseTime, Бюро общественной безопасности Гуанчжоу опознало более 2 000 подозреваемых с 2017 года с помощью этой технологии.

5.jpg (74 KB)

Дискриминация

Стоит вспомнить чат-бота Tay от Microsoft. За сутки бота в Twitter научили писать расистские твиты. Проблема в том, что чат-бот был обучен имитировать пользователей, взаимодействующих с ним в Интернете. Microsoft пришлось удалить учетную запись Tay.

"Дискриминация является одним из негативных последствий технологии. Мы видим это в алгоритмах, особенно машинном обучении", — прокомментировал профессор ИИ в Университете Нового Южного Уэльса Тоби Уолш.

Вопрос дискриминации, по мнению экспертов, связан с осуществимостью задачи сделать ИИ объективным, рациональным "мыслителем", лишенным предвзятости в пользу одной конкретной расы, или пола. Например, технология распознавания лиц хуже распознает афроамериканцев, а языковые системы ИИ ассоциируют определенные гендерные группы и расы со стереотипными ролями.

Share

Статьи по теме







0 Комментариев

Хотите быть первым?

Еще никто не комментировал данный материал.

Написать комментарий

Комментировать

Залишаючи свій коментар, пам'ятайте, що зміст та тональність вашого повідомлення можуть зачіпати почуття реальних людей, що безпосередньо чи опосередковано пов'язані із цією новиною. Виявляйте повагу та толерантність до своїх співрозмовників. Користувачі, які систематично порушують це правило, будуть заблоковані.

Website Protected by Spam Master


Останні новини

Перес вознаградил игроков Реала щедрой премией за проход Атлетико в Лиге чемпионов

Читать всю статью

Ми у соцмережах




Наші партнёри

UA.TODAY - Украина Сегодня UA.TODAY
enfrdeitplptruestruk