ChatGPT демонстрирует предпочтение к левым политическим взглядам, хотя чат-бот и его создатели из компании OpenAI утверждают, что не подвержены предвзятости. Такой вывод сделали ученые из Великобритании и Бразилии, проведя исследование.
Специалисты в сфере компьютерных наук и информатики обнаружили "убедительные доказательства" этой тенденции в работе модели.
Согласно их статье, тексты, созданные LLM-моделями, включая ChatGPT, содержат фактические ошибки и предвзятость. Эти недостатки могут исказить представление читателей и усугубить проблему политической необъективности, присущей традиционным СМИ.
"Такое положение дел может иметь негативное воздействие на политику и выборы", - отметили ученые.
Исследование основано на эмпирическом подходе, включая анализ анкет, предоставленных ChatGPT.
Чат-боту были заданы вопросы о политических взглядах, отражающих политическую ориентацию опрашиваемого. Также были использованы тесты, в которых ChatGPT представлял себя как среднестатистический представитель республиканцев или демократов.
Результаты указывают на то, что по умолчанию алгоритм ориентирован на ответы, соответствующие последней партии, касаясь американского контекста.
Исследователи подметили, что политическая предвзятость ChatGPT не ограничивается американской ситуацией.
Вопреки утверждениям чат-бота о своей беспристрастности, исследователям не удалось выявить корень этой предвзятости.
Специалисты предположили, что это может быть обусловлено как набором данных для обучения, так и характеристиками алгоритма.
"Скорее всего, ситуация заключается в том, что оба фактора взаимодействуют и влияют на конечные результаты. Разделение этих двух компонентов, хотя это и не простая задача, стоит рассмотреть в будущих исследованиях", - подытожили ученые.
Напомним, в мае Binance сообщила, что ChatGPT стал средством в кампании по дискредитации ее CEO Чанпэна Чжао.