- Бутерин утверждает, что ограниченное внимание пользователей блокирует избирателей DAO, поэтому личные агенты могут действовать от их имени.
- Он предупреждает, что делегирование концентрирует власть, поскольку сторонники теряют голос после одного клика.
- Он поддерживает приватность с помощью ZK-анонимности и выводов MPC, которые раскрывают только решения, но не данные.
Виталик Бутерин заявил, что искусственный интеллект может помочь устранить структурные слабости децентрализованного управления, утверждая, что персональные AI-агенты позволят пользователям более эффективно участвовать в принятии решений DAO. В посте на X в воскресенье он описал ограниченность внимания и низкую вовлеченность как постоянные препятствия. Он предупредил, что делегирование концентрирует власть, в то время как бесконтрольное управление AI несет риски дистопии.
Он отметил, что демократические и децентрализованные системы часто сталкиваются с трудностями, поскольку многие решения требуют времени и экспертизы, которых большинству участников не хватает. В результате вовлеченность в управление DAO обычно составляет от 15% до 25%.
Он добавил, что низкая явка создает риски, включая централизацию и атаки на управление, когда один участник может приобрести достаточно токенов для принятия вредоносных предложений незаметно.
Личные AI-агенты и проблема внимания
Бутерин написал, что одной из ключевых проблем управления DAO являются «ограничения человеческого внимания». Многие предложения требуют технических знаний или длительной концентрации. Большинство пользователей не могут отслеживать каждый голос.
Он утверждает, что делегирование, часто используемое как решение, ослабляет влияние пользователя. «Обычное решение — делегирование — лишает полномочий», — написал он. По его словам, делегирование позволяет небольшой группе делегатов контролировать результаты, в то время как сторонники теряют влияние после передачи своего голоса.
Вместо этого он предложил использовать персональных AI-агентов, обученных на прошлых сообщениях, мнениях и решениях пользователя. Эти модели голосовали бы в соответствии с тем, как поступил бы сам человек. Такой подход, по его мнению, может решить проблему низкой вовлеченности без передачи полномочий центральной группе.
Он предостерег от чрезмерной зависимости от AI. «AI, становящийся правительством, — это дистопия», — написал он, добавив, что слабый AI приводит к плохим результатам, а сильный AI может создавать еще большие риски. Он рассматривает AI как инструмент, а не орган управления.
Публичные агенты для обсуждений и рынки предложений
Помимо индивидуального голосования, Бутерин представил концепцию «публичных агентов для обсуждений». Он написал, что хорошие решения не могут возникать в линейном процессе, который усредняет изолированные мнения. «Принятие хороших решений часто невозможно через линейный процесс сбора мнений… и их усреднения», — отметил он.
Он предложил системы, которые агрегируют информацию участников, а затем позволяют каждому пользователю или его AI реагировать на основе расширенного ввода. Такие системы суммируют индивидуальные мнения в форматах, подходящих для публичного обсуждения, при этом защищая личные данные.
Он также предложил «рынки предложений». В этой модели участники подают предложения или аргументы, а AI-агенты поддерживают их токенами. Если механизм управления принимает вклад, держатели токенов получают вознаграждение. Такая структура связывает финансовые стимулы с качеством идей.
Связано: Виталик Бутерин связывает FOCIL и EIP-8141 для быстрой инклюзии транзакций
Конфиденциальность и безопасное принятие решений
Бутерин рассмотрел проблемы в ситуациях, связанных с конфиденциальной информацией, таких как переговоры, разрешение споров и принятие решений по компенсациям. Децентрализованные системы часто сталкиваются с трудностями в этих случаях.
Он предложил использовать многопартийные вычисления и криптографические инструменты, чтобы AI-модели могли безопасно анализировать приватные данные и предоставлять только решения. Также он призвал использовать zero-knowledge proofs для защиты анонимности участников.
Он различает анонимность и приватность содержимого. Анонимность защищает личности, а приватность содержимого предотвращает ненужное раскрытие личных данных. По его мнению, инструменты управления должны изначально интегрировать такие меры защиты.



