Искусственный интеллект уже стал причиной ареста одного человека, привел к отставке правительства Нидерландов и вызвал скандал с компанией Amazon.
С появлением новых возможностей и развитием искусственного интеллекта возникают новые опасности и риски, которые могут привести к непредсказуемым последствиям. В настоящее время ИИ не является надежным и стабильным - это его недостатки, которые могут нанести вред. Сегодня мы рассмотрим несколько реальных примеров, демонстрирующих, как ИИ уже нанес вред.
ИИ привел к заключению человека в тюрьму.
Майкл Уильямс был осужден и отправлен в тюрьму по обвинению в убийстве. Одним из основных доказательств был фрагмент видеозаписи с камеры наблюдения, на котором было видно проезжающий автомобиль и звук выстрела, заснятый микрофонами системы наблюдения. Прокуратура утверждала, что технология ShotSpotter, основанная на алгоритмах искусственного интеллекта, которые анализируют звуки, обнаруженные датчиками, указывает на то, что Уильямс совершил убийство.
Однако расследование, проведенное Associated Press и основанное на тысячах внутренних документов, выявило серьезные недостатки в использовании системы ShotSpotter. Исследование показало, что система может пропустить реальные выстрелы, произошедшие неподалеку от ее микрофонов, или неправильно классифицировать звуки фейерверков или автомобилей как выстрелы. Уильямс провел почти год в тюрьме, прежде чем его дело было закрыто.
Инцидент с Amazon
Одним из основных рисков искусственного интеллекта является его потенциал для дискриминации. Примером этого является случай с компанией Amazon в 2015 году, когда была внедрена система автоматического отбора резюме кандидатов на работу. Идея состояла в том, чтобы предоставить системе 100 резюме и позволить ей выбрать пять лучших, которых можно было бы нанять. Однако что могло пойти не так? Система начала проявлять дискриминацию по половому признаку, поскольку была обучена на основе данных о том, кого компания ранее принимала на работу. Так как в прошлом большинство принятых кандидатов были мужчины, система предпочтение отдавала мужчинам при отборе резюме. После выявления проблемы Amazon прекратил использование этой системы и признал свою ошибку публично в 2018 году.
ИИ, вызвавший аварии
Примером вреда, который может принести искусственный интеллект, являются случаи с Uber в 2018 году и с Tesla в 2022 году. В случае Uber компания использовала автономные автомобили с ИИ для перевозки пассажиров, но один из таких автомобилей попал в аварию, в результате которой погиб человек. Расследование показало, что система ИИ не смогла распознать пешехода на дороге, что привело к этой трагедии.
Авария с автомобилем Tesla Model Y, управляемым автопилотом, произошла в Китае в 2022 году. Автопилот вышел из-под контроля, автомобиль разогнался до скорости 200 км/ч и преодолел 2,6 километра, в результате чего два человека погибли.
Отставка правительства
Искусственный интеллект стал причиной отставки части правительства Нидерландов в январе 2021 года.
В соответствии с правилами страны, семьям, стремящимся получить государственное пособие по уходу за ребенком, необходимо подать заявление в голландский налоговый орган. Эти заявления должны были проходить проверку самообучающегося ИИ-алгоритма, который должен был выявить признаки мошенничества.
Однако на практике алгоритм разработал шаблон ложной маркировки заявлений как мошеннических, а государственные служащие просто наклеивали ярлыки мошенничества. В результате налоговые органы в течение многих лет безосновательно отказывали тысячам семей в законных пособиях, оставляя их в тяжелом долговом положении.
Использование искусственного интеллекта без должной осторожности и ответственности представляет серьезную угрозу для человечества. Важно разрабатывать системы ИИ, учитывая эти риски, и осуществлять строгий контроль за их применением.