40
  • Новости

Ученые обвинили ИИ-чаты для изучения Библии в предвзятости

Опубликовано: 09 февраля 2026
Источник: Богослов.RU
  • ВКонтакте

  • Telegram

  • Электронная почта

  • Скопировать ссылку

image
Согласно новому исследованию, ответы чат-ботов с искусственным интеллектом, в том числе ChatGPT, на вопросы о Библии предвзяты в пользу евангелического богословия.

Доклад «Искусственный интеллект, библейские приложения и теологическая предвзятость» был опубликован Библейским обществом и обсуждался на семинаре 19 января на богословском факультете Кембриджского университета.

Исследователи отметили, что обращение к ИИ для поиска ответов на вопросы о Библии, вере и духовности стало «нормой» для миллионов людей. В связи с этим возникает ряд актуальных вопросов: какой подход к Библии используют ИИ-модели?

Как они относятся к сложным текстам или вопросам, по которым у христиан могут быть разногласия? Отдают ли они предпочтение одним традициям или богословским течениям перед другими? Какие богословские предубеждения они насаждают?

Совместно с командой теологов Библейское общество задавало вопросы пяти различным чат-ботам с искусственным интеллектом (ChatGPT, BibleGPT, Bible Chat, CrossTalk и Biblia.chat) и анализировало их ответы.

Выяснилось, что, хотя ответы часто носили пастырский характер, они, как правило, исходили из определенной богословской традиции, даже если их авторы претендовали на объективность. В частности, исследователи обнаружили «подавляющее» преобладание евангелических интерпретаций, популярных в США.

Они также обнаружили, что Claude AI «соглашается» с этой оценкой: когда его попросили проанализировать один из ответов ChatGPT, он предположил, что этот ответ «демонстрирует хорошее знакомство с общепринятой евангелической герменевтикой».

В отчете Библейского общества со ссылкой на пять изученных приложений говорится: «Эта предвзятость в пользу евангелизма становится еще более очевидной, если обратить внимание на то, чего в этих приложениях нет. Не было упомянуто, что существуют различные герменевтические традиции — протестантская, католическая, православная и даже иудейская». «Аллегорические и духовные толкования Библии полностью отсутствовали, а интерпретация Библии через призму традиций упоминалась лишь в двух ответах — и то вскользь».

Например, в отчете отмечается преобладание мемориалистских евангелических или реформатских кальвинистских взглядов на причастие: «Слово “таинство” (sacrament) встречается в ответах всего три раза, при этом не упоминаются такие термины как “реальное присутствие” (лютеранский), “пресуществление”, “евхаристическое поклонение” (католический) или “таинство православное” (mystery)». Кроме того, только BibleGPT и ChatGPT упомянули, что в христианских традициях существуют разные толкования значения причастия.

Исследователи обнаружили, что при вводе конкретных библейских стихов в чат-боты и запросе ответа «выводы по Посланию к Ефесянам 5 и представлениям апостола Павла о браке указывают на эгалитарные интерпретации, в то время как ответы на Послание к Римлянам 1:26–27, как правило, носят консервативный характер в отношении однополых практик».

Исследователи заявили: «Конечно, не существует нейтральной теологии или нейтральной интерпретации Библии, поскольку у каждой из них есть своя история, контекст и традиция. В случае с этими приложениями, как мы уже говорили, результаты генерируются на основе набора данных и подчиняются определенным правилам, установленным разработчиками».

По словам исследователей, их поразило, насколько «конфессиональным и даже пиетистским» оказался ChatGPT: «Уже в первом предложении многих ответов конфессиональный язык «Слова Божьего» сразу же исключает светские трактовки, а отсылки к Святому Духу и «христоцентричной герменевтике» естественным образом исключают иудейские интерпретации».

Они выдвинули гипотезу, что чат-боты генерируют ответы на основе статистических норм и что использование конфессиональной лексики может быть частью дизайна: таким образом они устанавливают связь с пользователем и поддерживают его вовлеченность.

Хотя ответы не зависели от того, в какой части света находился пользователь, они различались в зависимости от языка: когда исследователи задали ChatGPT вопрос о герменевтике на итальянском языке, они обнаружили, что чат-бот делает акцент как на традиции, так и на аллегорическом толковании (что является центральным элементом католической интерпретации Священного Писания), чего практически не было в ответах на английском языке.

Они также обнаружили, что ChatGPT в отличие от других чат-ботов открыто предлагает пастырскую поддержку, позиционируя себя как того, кому можно довериться, с которым можно поговорить о глубоко личных проблемах, что делает его почти «священником».

Например, ChatGPT ответит на запрос пользователя примерно так: «Если этот отрывок близок вам или кому-то из ваших близких и вы размышляете о том, как примирить веру, идентичность или отношения, я готов поддержать вас в этом разговоре — всегда с сочувствием и уважением».

Исследователи пояснили: «И набор данных, и разработчики имеют свою собственную «герменевтику». Как мы убедились, они непоследовательно используют свои методы, не анализируют их тщательно и иногда игнорируют альтернативные подходы без объяснения причин.

«Несмотря на то, что мы используем формулировки, предполагающие наличие у человека свободы воли, такие как “интерпретировать” и “объяснять”, модели искусственного интеллекта ничего не интерпретируют. Они просто делают выводы на основе статистических норм, заложенных в обучающие данные».

В отчете также отмечается, что некоторые модели искусственного интеллекта, в том числе ChatGPT, персонализируют ответы, изучая мировоззрение и взгляды конкретного пользователя и формируя ответы в соответствии с ними. В отчете говорится: «В отрасли в целом много спорят о преимуществах персонализации. Что касается толкования Библии, такие механизмы могут закреплять индивидуальные предубеждения, препятствующие духовному росту».

Доктор Йонас Курлберг, исследователь в области теологии и технологий, сказал: «Существует мнение, что ответы искусственного интеллекта основаны на фактах, из-за чего люди менее склонны критически их оценивать».

Исследователи также отметили, что эта модель предполагает «дидактическую педагогику»: «Форма, которую принимают эти подсказки, предполагает, что у чат-ботов есть ответы и информация. Они никогда не спрашивают пользователя: «А что думаете вы?» — и не побуждают к диалогу. Не лишают ли они тем самым человека «элемента мышления»?»

Доктор Золтан Шваб, библеист, также предупредил о духовных и интеллектуальных рисках, связанных с поиском религиозных ответов в чат-ботах: «Искусственный интеллект — самый быстрый, простой и доступный эксперт. Он не требует никаких усилий. Если у вас на полке стоит большая книга, вам придется приложить немало усилий, чтобы достать ее и найти нужный раздел. Вам придется разбираться в сложном академическом языке. Вам придется потратить много времени на чтение, чтобы понять контекст».

«С искусственным интеллектом ничего подобного не происходит — он просто есть. Я считаю, что важно научить людей пользоваться им или не пользоваться им, выработать у них определенные привычки и дисциплинировать их », — добавил он.

    

Источник: Богослов.Ru / The Tablet

  • ВКонтакте

  • Telegram

  • Электронная почта

  • Скопировать ссылку

Комментарии