Новости криптовалют, биткоина, блокчейна, ChatGPT, Midjourney

Полная версия сайта

Подписывайтесь на наш канал в Telegram!

Проблемы с Чат-Ботом Copilot Designer от Microsoft

Дата: 07.03.2024
Проблемы с Чат-Ботом Copilot Designer от Microsoft


Когда ИИ Несет Ответственность


В мире быстроразвивающихся технологий Искусственного Интеллекта, иногда встречаются непредвиденные проблемы. Шейн Джонс, экс-инженер Microsoft, высказал серьезные опасения относительно Copilot Designer, чат-бота компании, который, по его словам, генерирует непристойный и насильственный контент, а также игнорирует авторские права.


Опасный Контент


Согласно Джонсу, чат-бот создает изображения, которые не только не соответствуют принципам ответственного ИИ, но и представляют потенциальную опасность для общества. Среди созданных изображений были монстры, сообщающие о праве на аборт, подростки с автоматами, а также сексуализированные изображения женщин и несовершеннолетних, употребляющих алкоголь и наркотики.


Завеса Молчания


Джонс утверждает, что неоднократно предупреждал руководство о проблемах с Copilot Designer, но компания не приняла эффективных мер. Несмотря на согласие с опасениями инженера, Microsoft не сняла продукт с продажи.


Отчаянные Попытки Решения


Чат-бот получает более 1000 отзывов о продукте ежедневно, но команда занимается расследованием только самых вопиющих случаев. Для решения проблем потребуются значительные инвестиции в новую разработку или переобучение моделей, но у компании не хватает на это ресурсов.


Проблемы с Авторским Правом


Еще одним серьезным вопросом стала нарушение Copilot Designer законов об авторском праве. Создание детальных изображений персонажей диснеевских мультфильмов и героев "Звездных войн" стало потенциальным нарушением законов и политики Microsoft.


Джонс подчеркивает, что отсутствие ясных механизмов обратной связи может привести к необратимым последствиям. Пока продукт остается в публичном доступе, возникает вопрос о том, насколько безопасными могут быть технологии ИИ и как компании должны брать на себя ответственность за их использование.



Комментариев к данной статье нет

Для того чтобы добавить комментарий авторизуйтесь в системе!


Яндекс.Метрика Индекс цитирования