Проблеми безпеки за допомогою штучного інтелекту стають очевидними, повністю гомоморфне шифрування може стати шляхом їх вирішення
З розвитком технологій штучного інтелекту, Manus досягнув проривних результатів у тестуванні GAIA, його продуктивність перевершила великі мовні моделі одного рівня. Manus продемонстрував здатність самостійно виконувати складні завдання, такі як міжнародні бізнес-переговори, що вимагають знань у різних сферах. На відміну від традиційних систем, Manus має значні переваги в динамічному розподілі цілей, крос-модальному мисленні та навчанні з покращеною пам'яттю.
Однак прогрес Manus також викликав жваві обговорення в галузі щодо шляхів розвитку штучного інтелекту: чи з'явиться в майбутньому єдиний універсальний штучний інтелект (AGI), чи будуть працювати кілька спеціалізованих агентів (MAS) у співпраці? Це обговорення насправді відображає проблему балансу між ефективністю та безпекою у розвитку штучного інтелекту. Коли одиночний агент наближається до AGI, непрозорість процесу прийняття рішень збільшує ризики; в той час як співпраця кількох агентів може зменшити ризики, але може пропустити критичні моменти для прийняття рішень через затримки в комунікації.
Розвиток Manus безпосередньо збільшує вроджені ризики безпеки штучного інтелекту. У медичних ситуаціях йому потрібно отримати доступ до чутливих геномних даних пацієнтів; у фінансових переговорах можуть бути залучені непублічні фінансові дані підприємств. Крім того, системи штучного інтелекту стикаються з проблемами алгоритмічної упередженості та атак на систему. Наприклад, у процесі найму можуть виникати несправедливі пропозиції щодо зарплати для певних груп, або під час перевірки юридичних документів може бути знижена точність оцінки умов нових галузей. Ще серйозніше, хакери можуть впроваджувати специфічні звукові сигнали, щоб заважати судженням системи штучного інтелекту під час переговорів.
Стикаючись з цими викликами, галузь досліджує різноманітні рішення для забезпечення безпеки. Серед них повністю гомоморфне шифрування (FHE) вважається потужним інструментом для вирішення проблем безпеки в епоху ШІ. FHE дозволяє виконувати обчислення на зашифрованих даних без необхідності їх дешифрування для обробки чутливої інформації.
На рівні даних FHE може забезпечити обробку всієї інформації, введеної користувачем (включаючи біометричні дані, голос тощо), у зашифрованому стані, навіть самі системи ШІ не можуть розшифрувати первинні дані. На алгоритмічному рівні, реалізоване через FHE "шифрування моделі навчання", може захистити процес прийняття рішень ШІ від підглядання. У співпраці багатьох агентів використання технології порогового шифрування може запобігти компрометації окремого вузла, що призводить до витоку глобальних даних.
Хоча технології безпеки Web3 можуть здаватися далекими для звичайних користувачів, вони є надзвичайно важливими для захисту інтересів користувачів. У блокчейн-індустрії вже існує кілька проектів, які досліджують технології безпеки, такі як децентралізована ідентичність та модель безпеки з нульовою довірою. Однак, у порівнянні з іншими, більш помітними сферами, проекти безпеки часто не викликають інтересу у спекулянтів.
З наближенням технологій штучного інтелекту до рівня людського інтелекту стає дедалі важливішим створення потужної системи захисту. Технології безпеки, такі як FHE, можуть не лише вирішити існуючі проблеми, але й закласти основу для більш потужної ери штучного інтелекту в майбутньому. На шляху до AGI ці технології безпеки більше не є варіативними, а є необхідною умовою для надійної роботи систем штучного інтелекту.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
16 лайків
Нагородити
16
7
Поділіться
Прокоментувати
0/400
StrawberryIce
· 21год тому
Не розумію, запитаю, що відбувається з цим питанням безпеки.
Переглянути оригіналвідповісти на0
ThatsNotARugPull
· 07-30 17:22
Машини стали розумнішими за мене gg
Переглянути оригіналвідповісти на0
fomo_fighter
· 07-30 17:16
Знову з'явився спосіб зламу. Чекаю на відповідь.
Переглянути оригіналвідповісти на0
MemeCoinSavant
· 07-30 17:15
згідно з моїм масштабним меметичним аналізом, MA - це просто AGI з додатковим копіумом, якщо чесно... децентралізований хопіум, серйозно.
Переглянути оригіналвідповісти на0
GasFeeLover
· 07-30 17:14
Чи справді хтось ще вірить в AGI?
Переглянути оригіналвідповісти на0
Rekt_Recovery
· 07-30 17:01
якщо чесно, я вже постраждав від торгових ботів на базі штучного інтелекту раніше... не торкнуся цього манус-штучного інтелекту навіть на відстані 10 футів, якщо чесно
Переглянути оригіналвідповісти на0
MainnetDelayedAgain
· 07-30 16:54
Статистика говорить, що це вже п'ятий проект цього року, який заявляє про намір створити безпечний інтелектуальний агент... Від першого обіцянки минуло 326 днів, чекаємо на оновлення даних.
повністю гомоморфне шифрування: безпечний щит ери ШІ та ключ до розвитку AGI
Проблеми безпеки за допомогою штучного інтелекту стають очевидними, повністю гомоморфне шифрування може стати шляхом їх вирішення
З розвитком технологій штучного інтелекту, Manus досягнув проривних результатів у тестуванні GAIA, його продуктивність перевершила великі мовні моделі одного рівня. Manus продемонстрував здатність самостійно виконувати складні завдання, такі як міжнародні бізнес-переговори, що вимагають знань у різних сферах. На відміну від традиційних систем, Manus має значні переваги в динамічному розподілі цілей, крос-модальному мисленні та навчанні з покращеною пам'яттю.
Однак прогрес Manus також викликав жваві обговорення в галузі щодо шляхів розвитку штучного інтелекту: чи з'явиться в майбутньому єдиний універсальний штучний інтелект (AGI), чи будуть працювати кілька спеціалізованих агентів (MAS) у співпраці? Це обговорення насправді відображає проблему балансу між ефективністю та безпекою у розвитку штучного інтелекту. Коли одиночний агент наближається до AGI, непрозорість процесу прийняття рішень збільшує ризики; в той час як співпраця кількох агентів може зменшити ризики, але може пропустити критичні моменти для прийняття рішень через затримки в комунікації.
Розвиток Manus безпосередньо збільшує вроджені ризики безпеки штучного інтелекту. У медичних ситуаціях йому потрібно отримати доступ до чутливих геномних даних пацієнтів; у фінансових переговорах можуть бути залучені непублічні фінансові дані підприємств. Крім того, системи штучного інтелекту стикаються з проблемами алгоритмічної упередженості та атак на систему. Наприклад, у процесі найму можуть виникати несправедливі пропозиції щодо зарплати для певних груп, або під час перевірки юридичних документів може бути знижена точність оцінки умов нових галузей. Ще серйозніше, хакери можуть впроваджувати специфічні звукові сигнали, щоб заважати судженням системи штучного інтелекту під час переговорів.
Стикаючись з цими викликами, галузь досліджує різноманітні рішення для забезпечення безпеки. Серед них повністю гомоморфне шифрування (FHE) вважається потужним інструментом для вирішення проблем безпеки в епоху ШІ. FHE дозволяє виконувати обчислення на зашифрованих даних без необхідності їх дешифрування для обробки чутливої інформації.
На рівні даних FHE може забезпечити обробку всієї інформації, введеної користувачем (включаючи біометричні дані, голос тощо), у зашифрованому стані, навіть самі системи ШІ не можуть розшифрувати первинні дані. На алгоритмічному рівні, реалізоване через FHE "шифрування моделі навчання", може захистити процес прийняття рішень ШІ від підглядання. У співпраці багатьох агентів використання технології порогового шифрування може запобігти компрометації окремого вузла, що призводить до витоку глобальних даних.
Хоча технології безпеки Web3 можуть здаватися далекими для звичайних користувачів, вони є надзвичайно важливими для захисту інтересів користувачів. У блокчейн-індустрії вже існує кілька проектів, які досліджують технології безпеки, такі як децентралізована ідентичність та модель безпеки з нульовою довірою. Однак, у порівнянні з іншими, більш помітними сферами, проекти безпеки часто не викликають інтересу у спекулянтів.
З наближенням технологій штучного інтелекту до рівня людського інтелекту стає дедалі важливішим створення потужної системи захисту. Технології безпеки, такі як FHE, можуть не лише вирішити існуючі проблеми, але й закласти основу для більш потужної ери штучного інтелекту в майбутньому. На шляху до AGI ці технології безпеки більше не є варіативними, а є необхідною умовою для надійної роботи систем штучного інтелекту.