Коментарі Бутеріна з’явилися в той час, коли зі швидким розвитком штучного інтелекту значно зросла стурбованість щодо безпеки ШІ.
Положення Бутеріна щодо ШІ План: відповідальність, кнопки паузи та міжнародний контроль
У дописі в блозі від 5 січня Віталік Бутерін виклав свою ідея «d/acc або захисне прискорення», де технологія повинна бути розроблена для захисту, а не для заподіяння шкоди. Однак це не перший випадок, коли Бутерін розповідає про ризики, пов’язані зі штучним інтелектом.
«Один із способів, у який штучний інтелект, який пішов не так, може зробити світ гіршим, — це (майже) найгірший із можливих: він може буквально призвести до вимирання людства», — сказав Бутерін. у 2023 році.
Тепер Бутерін продовжив свої теорії з 2023 року. За словами Бутеріна, до існування суперінтелекту залишилося лише кілька років.
«Схоже, у нас є три роки до AGI і ще три роки до суперінтелекту. І тому, якщо ми не хочемо, щоб світ був знищений або іншим чином потрапив у незворотну пастку, ми не можемо просто прискорити хороше, ми також повинні уповільнити погане», – написав Бутерін.
Щоб зменшити ризики, пов’язані зі штучним інтелектом, Бутерін виступає за створення децентралізованих систем штучного інтелекту, які залишаються тісно пов’язаними з прийняттям рішень людьми. Забезпечивши, щоб штучний інтелект залишався інструментом у руках людей, можна мінімізувати загрозу катастрофічних наслідків.
Далі Бутерін пояснив, як військові можуть бути відповідальними за сценарій «загибелі ШІ». Використання штучного інтелекту у військових цілях зростає у всьому світі, як це було видно в Україні та Газі. Бутерін також вважає, що будь-яке регулювання штучного інтелекту, яке набуде чинності, швидше за все, звільнить військових, що робить їх значною загрозою.
Співзасновник Ethereum також окреслив свої плани щодо регулювання використання ШІ. Він сказав, що перший крок до уникнення ризиків, пов’язаних зі штучним інтелектом, – це притягнути користувачів до відповідальності.
“Хоча зв’язок між розробкою моделі та тим, як вона закінчується часто незрозуміло, користувач вирішує, як саме використовувати ШІ», — пояснив Бутерін, підкреслюючи роль користувачів.
Якщо правила відповідальності не працюють, наступним кроком буде впровадження “м’якої паузи” кнопки, які дозволяють регулювати штучний інтелект для уповільнення темпу потенційно небезпечних досягнень.
«Мета полягала б у тому, щоб мати можливість зменшити доступні обчислення в усьому світі на ~90-99% протягом 1-2 років у критичний період, щоб виграти більше часу для людства на підготовку».
Він сказав, що паузу можна реалізувати за допомогою перевірки та реєстрації місцезнаходження ШІ.
Іншим підходом було б керування апаратним забезпеченням ШІ. Бутерін пояснив, що апаратне забезпечення штучного інтелекту можна оснастити чіпом для керування ним.
Чіп дозволить системам штучного інтелекту функціонувати, лише якщо вони отримають три підписи від міжнародних організацій щотижня. Крім того, він додав, що принаймні один із органів має бути невійськовим.
Однак Бутерін визнав, що його стратегії мають прогалини і є лише «тимчасовими проміжками».