Сотрудники Google Требуют Ограничений в Использовании ИИ в Военных Целях, Подобно Конфликту с Anthropic

12

Растущая напряженность между Пентагоном и разработчиками ИИ обостряется: сотрудники Google присоединились к призывам установить строгие этические границы в применении искусственного интеллекта в военных целях. Более 100 сотрудников Google, работающих над технологиями ИИ, направили письмо руководству компании, перекликаясь с опасениями, ранее высказанными Anthropic, и требуя от Google установить чёткие «красные линии» в своих государственных контрактах.

Усиливающееся Давление на Технологические Компании

Разногласия сосредоточены вокруг настойчивого требования Министерства обороны США к неограниченному доступу к моделям ИИ, включая Gemini AI от Google и Anthropic, для целей, которые могут включать массовую слежку за гражданами и развёртывание в полностью автономных системах вооружений. Anthropic сопротивляется этим требованиям, добиваясь гарантий того, что его технологии не будут использоваться в неэтичных или вредоносных приложениях. Это сопротивление теперь провоцирует аналогичные внутренние дебаты и в других технологических гигантах.

Письмо сотрудников Google, адресованное главному научному сотруднику Джеффу Дину, конкретно просит компанию не допустить использования Gemini AI военными для внутренней слежки или в системах вооружений, работающих без участия человека. Они заявили о желании «гордиться своей работой», предполагая, что участие в таких проектах нанесёт ущерб моральному духу и этической позиции компании.

Более Широкие Отраслевые Проблемы

Это не единичный случай. Около 50 сотрудников OpenAI вместе с 175 коллегами из Google публично раскритиковали тактику переговоров Пентагона, призывая лидеров отрасли объединиться и отвергнуть текущие требования. Министерство обороны в настоящее время имеет контракт на 200 миллионов долларов с Anthropic, используя своё существенное влияние на ландшафт ИИ.

Суть проблемы заключается в том, должны ли частные компании ставить прибыль от государственных контрактов выше этических соображений при работе с потенциально опасными технологиями. Если Пентагону удастся обеспечить неограниченный доступ, это может создать опасный прецедент, нормализуя использование ИИ для бесконтрольной слежки и автономной войны.

Эта ситуация поднимает фундаментальный вопрос: Возможно ли примирить разработку ИИ с ответственным управлением и правами человека? Ответ будет зависеть от того, выберут ли технологические компании приоритетом этические границы над краткосрочной финансовой выгодой.

Противостояние, вероятно, продолжится, потенциально меняя отношения между военными и индустрией ИИ, вынуждая более глубокое осмысление этических последствий передовых технологий.