Системи штучного інтелекту можуть нести серйозну небезпеку для суспільства. Про це йдеться на сайті некомерційної організації Future of Life Institute.
Тому генеральний директор SpaceX, Tesla та Twitter Ілон Маск, співзасновник Apple Стів Возняк та ще 1100 професорів, інженерів та дослідників закликають призупинити експерименти.
Автори вважають, що навчання та випробування потужніших систем штучного інтелекту, ніж GPT-4, повинні бути припинені щонайменше на півроку, доки не з'являться загальні протоколи безпеки. Якщо таку паузу не можна запровадити швидко, уряди мають втрутитися та ввести мораторій.
Лабораторії штучного інтелекту та незалежні експерти повинні використовувати цю паузу для спільної розробки та впровадження набору загальних протоколів безпеки для вдосконаленого проектування та розробки штучного інтелекту, які ретельно перевіряються та контролюються незалежними зовнішніми експертами.
"Нам слід запитати себе: чи повинні ми дозволити машинам наповнити наші інформаційні канали пропагандою та брехнею? Чи повинні ми автоматизувати всю роботу, включаючи задоволення, яке це приносить? Чи повинні ми розвивати нелюдські уми, які в результаті можуть перевершити нас чисельністю, перехитрити і замінити? Чи ми ризикуватимемо втратою контролю над нашою цивілізацією?" - йдеться у листі.