Google сам себе разрешил использовать ИИ для создания оружия и технологий слежки

Google сам себе разрешил использовать ИИ для создания оружия и технологий слежки

Компания Google внесла важное изменение в документ, описывающий принципы работы компании с искусственным интеллектом; теперь в нем нет пункта, который запрещает использование подобных технологий для создания оружия или инструментов слежки.

При этом Google не первая компания, которая отказалась от подобных ограничений. Многие конкуренты в сфере ИИ, в том числе OpenAI и Anthropic, уже заявили о планах сотрудничать с оборонным сектором США.

«Медуза» рассказывает, как эти изменения объясняют сами разработчики (спойлер: невнятно) и в каких еще военных проектах участвуют создатели искусственного интеллекта.

Издание The Washington Post обратило внимание на изменения в принципах работы Google с ИИ во вторник, 4 февраля. Журналисты отмечают, что правки внесли недавно. В архивной копии страницы от 30 января ограничения на применение ИИ в определенных сферах все еще присутствуют.

Журналисты напоминают, что впервые Google представил свои принципы работы с искусственным интеллектом в 2018-м. К этому привел протест сотрудников против сотрудничества с Пентагоном в рамках проекта Maven. Контракт с военными подразумевал использование алгоритмов компьютерного зрения Google для анализа кадров, полученных с дронов.

«Мы считаем, что Google не должен заниматься войной», — говорилось в открытом письме, которое подписали больше трех тысяч сотрудников компании. Они потребовали немедленно закрыть проект, а также разработать четкую политику использования технологий Google. В частности, руководство должно было гарантировать, что ни сама компания, ни ее подрядчики никогда не будут создавать военные технологии.

В конечном итоге Google отказался от участия в проекте. В опубликованном позже документе помимо целей компании и принципов разработки ИИ-продуктов до недавнего времени был пункт, связанный с ограничениями.

В нем указано, что Google не будет разрабатывать искусственный интеллект (или внедрять уже существующие разработки) для четырех областей применения: 

— Технологии, которые причиняют или могут причинить общий вред. «Если существует существенный риск нанесения вреда, мы будем действовать только в тех случаях, когда считаем, что преимущества существенно перевешивают риски, и примем соответствующие меры по обеспечению безопасности», — говорится в документе.

— Оружие или другие технологии, основная цель или применение которых заключается в причинении вреда людям или непосредственное содействие этому.

— Технологии, которые собирают или используют информацию для слежки, нарушая международно признанные нормы.

— Технологии, цель которых противоречит общепринятым принципам международного права и прав человека.

Сразу после этого блока в документе шла уточняющая фраза:

«По мере накопления опыта в этой области список может меняться». Судя по всему, время для этих изменений пришло. Но с чем они связаны и, самое главное, как теперь изменятся принципы работы компании — непонятно.

Газета The Washington Post обратилась за комментарием к представителям Google, но в компании отказались отвечать на конкретные вопросы, связанные с использованием ИИ в военных целях. Вместо этого они предложили журналистам ознакомиться с постом в корпоративном блоге, который был опубликован в тот же день.

Однако в тексте, авторами которого указаны старший вице-президент Google Джеймс Манийка и сооснователь и гендиректор Google DeepMind Демис Хассабис, нет никакой конкретики. 

В главе, посвященной новым принципам работы с ИИ, говорится, что технологии искусственного интеллекта существенно продвинулись, став частью повседневной жизни миллиардов людей. Теперь Google планирует сфокусироваться на трех ключевых направлениях: инновациях, ответственной разработке и внедрении ИИ,  — а также на совместном прогрессе (подразумевается, что компания создает технологии, которые помогают другим использовать ИИ во благо).

Об отмене ограничений, связанных с использованием искусственного интеллекта, в блоге не сказано ни слова. Единственный абзац, который можно считать попыткой косвенно объяснить эти изменения, звучит так:

 

"Глобальная гонка за лидерство в области ИИ происходит в условиях все более сложной геополитической обстановки. Мы считаем, что демократические страны должны лидировать в разработке ИИ, руководствуясь основными ценностями, такими как свобода, равенство и уважение прав человека. Мы также считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе для создания ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность"".

 

Этой зимой читайте нас в Telegram, Facebook, Instagram, Яндекс.Дзен, OK и ВК

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *