В развитие тем:
ИИ — это не технология.
Изменение курса.
Подавляющее большинство профессионалов ИИ, а также политиков и даже военных привыкли к мысли, что два главных типа рисков, связанных с ИИ:
• риски аварий (ошибок в работе или выхода из строя);
• риски нецелевого использования (непредусмотренного действия, произошедшего по недоработке, дурости или злонамеренности разработчиков, операторов, пользователей или злоумышленников).
Это чрезвычайно упрощенная недооценка рисков ИИ, не учитывающая третий тип рисков — структурные риски, — из-за неадекватного понимания сути технологического феномена ИИ.
И это странно.
Ведь метафора, что ИИ подобен электричеству — структурно меняет большинство уже существующих технологий и позволяет создавать новые и доселе невообразимые, — широко известна и применяется всем, кому не лень.
Но никому до сих пор так и не приходило в голову посмотреть на риски ИИ с этой метафорической точки зрения, не как на риски конкретных технологий, использующих ИИ, а как на структурные риски, порождаемые интеллектуализацией уже существующих инфраструктур, систем принятия решений и управления.
В работе Ремко Цветслофа и Алана Дефо «Thinking About Risks From AI: Accidents, Misuse and Structure» наконец-то впервые был поставлен вопрос о структурных рисках ИИ.
Обозначу наиболее заинтересовавшие меня мысли:
• Структурные риски связаны не сколько с самой технологией, сколько с физическим и психологическим «переформатированием мира» в результате внедрения новой технологии. Какими будут последствия «переформатирования мира» сложно понять, пока широкое внедрение технологии не произошло.
• Примером физического «переформатирования мира» может служить построение европейской железнодорожной системы, кардинально изменившей характер и способы ведения Первой мировой войны, поскольку позволяла осуществлять массовые перевозки войск и оружия через континент.
• Примером психологического «переформатирования мира» может служить пересмотр компромиссов между собственной безопасностью и эффективностью применения оружия, — как это было, например, с появлением ядерного оружия. В результате на Земле возник «долгий мир», основу которого заложила новая глобальная доктрина гарантированного взаимного уничтожения.
• Речь идет далеко не только о рисках войны. Структурные ИИ риски возникают повсюду — в политических, социальных и экономических структурах. Всюду, где внедрение ИИ решений будет оказывать давление на лиц, принимающих решения — даже вполне благонамеренных и компетентных, — при принятии ими дорогостоящих и/или рискованных решений.
Именно структурные риски становятся главными при решении многих актуальнейших проблем:
• обеспечение кибербезопасности;
• сбор, распространение и монетизация данных;
• нарастающая монополизация бизнеса крупнейшими компаниями;
• необратимая замена людей машинами и алгоритмами.
• то, что Харари называет «хакинг человека».
Структурные ИИ риски не снижаются путем троирования, интеллектуальных систем контроля и прочих технических методов и средств.
Единственный способ их минимизации — создание человечеством новых норм и институтов.
ИИ — не винтовка, граната или стингер, все риски которых лишь в том, что могут некачественно выполнить свою функцию или быть украденными и использованными во зло.
ИИ — это электричество, железные дороги и ядерная реакция вместе взятые. И потому структурные риски ИИ невообразимо сложны и колоссально серьезны.
/Источник/
Journal information