Можем ли мы когда-нибудь доверять агентам ИИ?

Как исследователь, потративший годы на изучение взаимодействия искусственного интеллекта, блокчейна и общества, я постоянно размышляю над наблюдением Б. Ф. Скиннера о доверии к машинам. Однако в свете быстрой эволюции агентов ИИ его слова теперь кажутся почти наивными.

«Настоящая проблема не в том, могут ли машины думать, а в том, могут ли люди думать». Это заявление подчеркивает важную истину: наша зависимость от технологий зависит от принятия решений человеком. Нам действительно следует интересоваться не интеллектом машин, а мудростью и ответственностью тех, кто ими управляет. Хотя когда-то это было важным моментом, со временем ситуация определенно изменилась.

Мне, как исследователю в этой динамичной области, интересно размышлять о трансформации, которую искусственный интеллект (ИИ) произвёл за последние годы. Идеи Скиннера кажутся почти устаревшими по сравнению с быстрым развитием агентов ИИ, программных объектов, которые могут воспринимать окружающую среду и действовать для достижения конкретных целей. Эти цифровые помощники, рожденные в результате бума потребительского искусственного интеллекта в начале 2020-х годов, стали неотъемлемой частью нашей повседневной жизни, плавно выполняя самые разные задачи, от планирования встреч до принятия инвестиционных решений, тонко вплетаясь в ткань нашего цифрового существования.

Что такое агенты ИИ?

Агенты ИИ заметно отличаются от больших языковых моделей (LLM), таких как ChatGPT, своей способностью к независимым действиям. В отличие от LLM, которые в основном обрабатывают и создают текст, агенты ИИ созданы для восприятия окружающей среды, принятия решений и выполнения действий для достижения определенных целей. Благодаря интеграции нескольких технологий искусственного интеллекта, таких как обработка естественного языка, компьютерное зрение и обучение с подкреплением, эти агенты могут адаптироваться и учиться на основе своего взаимодействия.

По мере того как агенты ИИ становятся все более распространенными и продвинутыми, возникает растущее чувство опасений. Можем ли мы когда-нибудь полностью положиться на этих цифровых существ? Это не просто теоретический вопрос. Агенты ИИ действуют в сложных условиях, принимая решения на основе огромных наборов данных и сложных алгоритмов, которые даже их разработчикам трудно полностью понять. Отсутствие прозрачности порождает сомнения. Когда ИИ-агент предлагает лечение или предсказывает рыночные тенденции, как мы можем быть уверены в логике, определяющей его выбор?

Слишком легкомысленное доверие к агентам ИИ может привести к серьезным последствиям. Например, представьте, что финансовый консультант ИИ совершает ошибку, приводящую к краху рынка из-за неправильно понятых данных, или ИИ в сфере здравоохранения, прописывающий ошибочное лечение на основе предвзятой информации об обучении. Возможность нанесения ущерба не ограничивается конкретными отраслями промышленности; По мере того как агенты ИИ глубже проникают в нашу повседневную жизнь, их влияние быстро увеличивается. Даже небольшая ошибка может вызвать цепную реакцию, затрагивающую самые разные аспекты — от личной конфиденциальности до глобальной экономики.

В основе этого дефицита доверия лежит фундаментальная проблема: централизация. Разработка и внедрение моделей искусственного интеллекта в основном находились в компетенции горстки технологических гигантов. Эти централизованные модели ИИ действуют как черные ящики, а их процессы принятия решений скрыты от общественного внимания. Отсутствие прозрачности делает практически невозможным доверять их решениям в операциях с высокими ставками. Как мы можем полагаться на агента ИИ в принятии важных решений, если мы не можем понять или проверить его доводы?

Децентрализация как ответ

Однако решение этих проблем существует: децентрализованный ИИ. Парадигма, которая открывает путь к более прозрачным и заслуживающим доверия агентам ИИ. Этот подход использует сильные стороны технологии блокчейн и других децентрализованных систем для создания моделей ИИ, которые не только мощны, но и подотчетны.

Инструменты для укрепления доверия к агентам ИИ уже существуют. Блокчейны могут обеспечить возможность проверяемых вычислений, гарантируя, что действия ИИ поддаются аудиту и отслеживанию. Каждое решение, принимаемое агентом ИИ, может быть записано в публичном реестре, что обеспечивает беспрецедентную прозрачность. В то же время передовые криптографические методы, такие как машинное обучение доверенной среды выполнения (TeeML), могут защитить конфиденциальные данные и поддерживать целостность модели, обеспечивая как прозрачность, так и конфиденциальность.

В условиях быстро растущего использования агентов ИИ наряду с публичными блокчейнами или в них идея подтверждаемости приобретает все большее значение. В то время как традиционным моделям ИИ может быть сложно продемонстрировать подлинность своих операций, агенты ИИ, созданные на основе технологии блокчейна, могут предложить криптографические гарантии своего поведения. Эта подтверждаемость — не просто техническая роскошь; это основная предпосылка доверия в сценариях высокого риска.

Доверенные среды выполнения (TEE) представляют собой важнейшую меру безопасности при конфиденциальных вычислениях. По сути, они обеспечивают безопасную зону для вычислений искусственного интеллекта, защищая их от внешних помех. Это означает, что вычисления ИИ происходят в этом защищенном пространстве, свободном от потенциальных вторжений или манипуляций. В результате даже те, кто управляет системой ИИ, не могут вмешиваться или тайно контролировать процессы принятия решений агентом, тем самым повышая доверие и безопасность.

Инновационные фреймворки, такие как Runtime Off-chain Logic (ROFL) от Oasis Network, занимают лидирующие позиции в этой методологии, способствуя легкому сочетанию проверяемых вычислений ИИ с возможностью аудита и прозрачности в цепочке. Эти достижения расширяют горизонты приложений на базе искусственного интеллекта, обеспечивая при этом соблюдение первоклассных стандартов доверия и открытости.

На пути к надежному будущему искусственного интеллекта

Навигация по надежным агентам ИИ не лишена трудностей; технические барьеры сохраняются, а внедрение децентрализованных систем искусственного интеллекта в более широком масштабе требует изменений как в промышленных методах, так и в общественном восприятии. Тем не менее, выгоды могут быть огромными. Представьте себе мир, в котором агенты ИИ прозрачно принимают важные решения, совершая действия, которые могут быть тщательно изучены и проверены всеми, и где мощь искусственного интеллекта распределена между многими, а не монополизирована несколькими корпорациями.

Кроме того, существует потенциал для существенного экономического роста. Исследование, проведенное в Пекине в 2023 году, показало, что рост интеграции ИИ на 1% соответствует увеличению общей факторной производительности (TFP) на 14,2%. Однако многие исследования производительности, связанные с ИИ, в первую очередь концентрируются на общих моделях изучения языка (LLM), а не на автономных агентах ИИ. Эти самоуправляемые ИИ-агенты, способные независимо выполнять различные задачи, могут обеспечить более существенное повышение производительности. Более того, надежные и проверяемые агенты ИИ потенциально могут оказаться еще более эффективными в этом отношении.

Возможно, придется пересмотреть известное высказывание Скиннера. Проблема не только в том, способны ли машины мыслить, но и в том, можем ли мы положиться на их мыслительные процессы. Поскольку искусственный интеллект и блокчейн переходят к децентрализованной модели, у нас есть средства для установления доверия. Однако сейчас вопрос заключается в том, хватит ли у нас проницательности, чтобы разумно применять эти инструменты.

Имейте в виду, что мнения, изложенные в этой статье, принадлежат исключительно автору и не всегда могут совпадать с взглядами CoinDesk Inc., ее владельцев или аффилированных сторон.

Смотрите также

2024-09-30 20:27