Раскрыть 
  Расширенный 
 

Можно ли контролировать искусственный интеллект?

02/17/2024 7 Дней
AI_Роман Ямпольский

Роман Ямпольский

Ученый из Университета Луисвилля (University of Louisville) и эксперт по безопасности искусственного интеллекта (ИИ) Роман Ямпольский предупредил о том, что ИИ может стать неконтролируемым. Это может привести к катастрофе на планете.

В своей книге «ИИ: необъяснимое, непредсказуемое, неконтролируемое» (AI: Unexplainable, Unpredictable, Uncontrollable) исследователь рассказал, что если человечество и дальше будет неограниченно развивать новые технологии, то потеряет над ними контроль.

«Мы столкнулись с почти гарантированным событием, которое потенциально может вызвать экзистенциальную катастрофу на планете», отметил Ямпольский.

По словам эксперта, наивно полагать, что люди смогут объяснить любые действия ИИ, так как наша способность создавать интеллектуальное программное обеспечение намного превосходит нашу способность контролировать его. Ученый назвал ИИ потенциально непредсказуемым и заявил, что он может стать полностью автономным.

«Если мы привыкнем принимать ответы ИИ без объяснения причин, мы не сможем гарантировать, не будет ли он давать неправильные или манипулирующие ответы», подчеркнул Ямпольский.

Далее он утверждает, что присущая системам ИИ непредсказуемость и повышенная автономность создают серьезные проблемы для обеспечения их безопасности и соответствия человеческим ценностям. В книге подчеркивается острая необходимость расширения исследований и разработок в области мер безопасности ИИ для смягчения этих рисков, пропагандируя сбалансированный подход, отдающий приоритет человеческому контролю и пониманию.

В настоящее время нет доказательств того, что ИИ можно безопасно контролировать, и без доказательств того, что ИИ можно контролировать, его не следует разрабатывать, предупреждает исследователь. Несмотря на признание того, что проблема управления ИИ может быть одной из наиболее важных проблем, стоящих перед человечеством, она остается плохо понятой, плохо определенной и плохо исследованной, объясняет доктор Роман Ямпольский.

В своей книге эксперт по безопасности ИИ Ямпольский рассматривает способы, с помощью которых ИИ может кардинально изменить общество, не всегда в нашу пользу.

Он объясняет: «Мы столкнулись с почти гарантированным событием, которое может привести к экзистенциальной катастрофе. Неудивительно, что многие считают это самой важной проблемой, с которой когда-либо сталкивалось человечество. Результатом может быть процветание или вымирание, и судьба Вселенной висит на волоске».

Доктор Ямпольский провел обширный обзор научной литературы по ИИ и заявил, что не нашел доказательств того, что ИИ можно безопасно контролировать и даже если будет какой-то частичный контроль, его будет недостаточно.

Он объясняет: «Почему так много исследователей полагают, что проблема управления ИИ разрешима? Насколько нам известно, этому нет доказательств. Прежде чем приступить к созданию управляемого ИИ, важно показать, что проблема разрешима. Это, в сочетании со статистикой, которая показывает, что развитие суперинтеллекта является почти гарантированным событием, показывает, что мы должны поддерживать значительные усилия по обеспечению безопасности ИИ».

Эксперт утверждает, что наша способность создавать интеллектуальное программное обеспечение намного превосходит нашу способность контролировать или даже проверять его. После всестороннего обзора литературы он предположил, что передовые интеллектуальные системы никогда не смогут быть полностью управляемыми и поэтому всегда будут представлять определенный уровень риска, независимо от пользы, которую они приносят. Он считает, что целью сообщества ИИ должна быть минимизация такого риска при максимизации потенциальной выгоды.

ИИ отличается от других программ своей способностью изучать новое поведение, корректировать свою работу и действовать почти автономно в новых ситуациях. Одна из проблем, связанных с обеспечением безопасности ИИ, заключается в том, что возможные решения и неудачи сверхразумного существа по мере того, как оно становится более способным, бесконечны, поэтому существует бесконечное количество проблем безопасности. Просто спрогнозировать проблемы невозможно и устранить их с помощью обновлений безопасности может быть недостаточно.

В то же время, объясняет Ямпольский, ИИ не может объяснить то, что он решил, или мы не можем понять данное объяснение, поскольку люди недостаточно умны, чтобы понять реализованные концепции. Если мы не понимаем решений ИИ и у нас есть только «черный ящик», мы не сможем понять проблему и снизить вероятность будущих аварий.

Например, системам искусственного интеллекта уже поручено принимать решения в таких сферах, как здравоохранение, инвестирование, трудоустройство, банковское дело и безопасность, и это лишь некоторые из них. Такие системы должны быть способны объяснить, как они пришли к своим решениям, в частности, чтобы продемонстрировать, что они свободны от предвзятости.

Ямпольский объясняет: «Если мы привыкнем принимать ответы ИИ без объяснения причин, по сути, рассматривая его как систему Oracle, мы не сможем сказать, начнет ли он давать неверные или манипулирующие ответы».

По мере увеличения возможностей ИИ его автономность также увеличивается, но наш контроль над ним уменьшается, объясняет Ямпольский, а увеличение автономности является синонимом снижения безопасности.

«Человечество стоит перед выбором, станем ли мы подобны младенцам, о которых заботятся, но не контролируют, или мы отказываемся от полезного опекуна, но остаемся ответственными и свободными».

Он предполагает, что можно найти точку равновесия, в которой мы пожертвуем некоторыми возможностями в обмен на некоторый контроль за счет предоставления системе определенной степени автономии.

Одним из предложений по контролю является создание машины, которая бы точно следовала человеческим приказам, но Ямпольский указывает на возможность противоречивых приказов, неправильного толкования или злонамеренного использования.

Если бы ИИ действовал скорее, как советник, он мог бы обойти проблемы с неправильной интерпретацией прямых приказов и возможностью злонамеренных приказов, но автор утверждает, что для того, чтобы ИИ был полезным советником, он должен иметь свои собственные высшие ценности.

По его словам, чтобы свести к минимуму риск ИИ, он должен быть модифицируемым с возможностью «отменить», ограниченным, прозрачным и простым для понимания на человеческом языке. Он предлагает разделить весь ИИ на контролируемый и неконтролируемый, ничего не следует снимать с повестки дня и ограничивать моратории и даже рассматривать возможность частичного запрета на определенные типы технологий ИИ.

«Скорее, это повод для большего числа людей копать глубже и увеличивать усилия и финансирование исследований в области безопасности ИИ. Возможно, мы никогда не добьемся 100% безопасного ИИ, но мы можем сделать ИИ более безопасным пропорционально нашим усилиям, что намного лучше, чем ничего не делать. Нам нужно использовать эту возможность с умом».

 

 

 
 
 

Похожие новости


Газета «7 Дней» выходит в Чикаго с 1995 года. Русские в Америке, мнение американцев о России, взгляд на Россию из-за рубежа — основные темы издания. Старейшее русскоязычное СМИ в Чикаго. «7 Дней» это политические обзоры, колонки аналитиков и удобный сервис для тех, кто ищет работу в Чикаго или заработки в США. Американцы о России по-русски!

Подписка на рассылку

Получать новости на почту