Співіснування людини та штучного інтелекту несе в собі багато потенційних загроз

У найближчому майбутньому штучний інтелект змінить світУ найближчому майбутньому штучний інтелект змінить світ

Останнім часом дедалі частіше відбувається обговорення питань, пов’язаних з функціонуванням штучного інтелекту, та потенційних загроз, які він несе. Багато хто згадує художній фільм «Термінатор», в якому розповідається, як розумні машини захопили світ. Таке бачення більше пов’язане з науковою фантастикою, ніж з реальністю, але штучний інтелект вже становить загрозу, хоча вона поки що значно відрізняється від тієї, що представлена в фільмі.

Чим саме є штучний інтелект?

У найближчому майбутньому штучний інтелект змінить світ. Частково ці зміни будуть позитивними та можуть принести користь людям у таких сферах, як охорона здоров’я, транспорт, поліпшення планування міського простору, але водночас вони можуть бути серйозною загрозою, зокрема в руках терористичних та злочинних груп.

Розвиток штучного інтелекту, що спостерігається нині, в основному обумовлений експоненціальним розвитком в області напівпровідникових технологій. Потужність обчислювальних операцій, пам’яті, каналів передачі даних з часом невідворотно зростає, а наявне обладнання дозволяє розробляти великомасштабні алгоритми штучного інтелекту, які були опрацьовані понад 40 років тому. За кілька доларів ви можете створити комп’ютер, який має потужність колишніх обчислювальних центрів.

К\ф «Термінатор»

К\ф «Термінатор»

Найпоширенішою асоціацією, пов’язаною з штучним інтелектом (англ. Artificial Intelligence; АІ), є фільм «Термінатор», в якому мислячі машини воюють проти людства. Проте штучний інтелект фактично може набувати різних форм: від алгоритмів пошуку Google до цифрового помічника SIRI, IBM Watson, закінчуючи автоматичною зброєю.

Сьогоднішній штучний інтелект називають слабким АІ, оскільки він здатен виконувати обмежену кількість завдань, таких як розпізнавання обличчя, пошук в Інтернеті або водіння автомобіля. Кінцева мета вчених полягає в тому, щоб створити загальний АІ, який також називають сильним AI, або AGI. Так званий слабкий AI може накопичувати знання лише у вузькій області і здатен перемогти людину в конкретних завданнях, таких, як гра в шахи або вирішення головоломок. AGI, в свою чергу, може подолати людину при вирішенні будь-якої задачі. Хоча до створення AGI все ще далеко, проте, на думку деяких дослідників, цього ніколи не відбудеться, оскільки потенційною загрозою може стати навіть слабкий АІ.

Завдяки обчислювальній потужності комп’ютери перемагають людину не тільки під час гри в шахах, але і в таких іграх, як Go, які вимагають прийняття рішень на основі «інтуїції» та «досвіду», а не просто здатності логічно мислити.

Штучний інтелект підтримує нас у повсякденному житті, завдяки чому ми часто маємо змогу уникати докладання зусиль і перестаємо щось вимагати від себе. Ми добровільно довіряємось машинам і некритично віддаємо в їхні руки своє життя та конфіденційність, вважаючи, що в цьому немає нічого поганого. Ми керуємо автомобілями, які потребують від нас мінімум навичок, використовуємо смартфони та веб-сайти замість книг. Щодня людина починає виконувати одні й ті самі дії, перестає критично ставитися до себе і навколишнього світу, вбиває в собі прагнення до пізнання, повільно стаючи чистим споживачем.

Штучний інтелект

Штучний інтелект

Потенційні загрози

Всесвітньо відомі вчені та бізнесмени давно попереджають про загрози з боку штучного інтелекту. Елон Маск, творець Теsla і PayPal, заявив, що змагання, яке має на меті здобуття переваг в галузі штучного інтелекту, ймовірно, завершиться Третьою світовою війною. Відомий британський фізик Стівен Гокінг попереджав, що нестримна і нерегульована розробка штучного інтелекту може призвести до створення нової форми життя, яка замінить людей. Раніше Гокінг передбачив, що розвиток штучного інтелекту може призвести до знищення людства, і люди повинні знайти шлях до швидкої ідентифікації ризиків, пов’язаних з АІ, перш ніж вони вийдуть на рівень, який загрожуватиме цивілізації.

У контексті загроз, що виникають з боку штучного інтелекту, найчастіше згадують автономні системи зброї, які зможуть обирати та ліквідовувати цілі без згоди людей. Саме в цьому контексті з’являється бачення автономних машин, які можуть повстати проти людей і розпочати проти них війну, як у фільмі «Термінатор». Збройні сили Сполучених Штатів Америки, Китаю та Росії інтенсивно працюють над використанням штучного інтелекту для поліпшення боєздатності своїх військ. Американці експериментують з автономними підводними човнами, які можуть відстежувати ворожі плавзасоби на відстані тисячі миль, а китайці продемонстрували інтелектуальні алгоритми для управління ескадрильєю безпілотних літальних апаратів. Хоча ще далеко до втілення в життя сценарію, подібного до фільму «Термінатор», Організація Об’єднаних Націй і Human Rights Watch апелюють до політиків з усього світу із закликом ухвалити договір щодо ліквідації зброї, наділеної штучним інтелектом. Такі заклики можуть бути ефективними. Наприклад, співробітники Google змусили компанію вийти з проекту Maven, який передбачав тісну співпрацю з Пентагоном у розвитку штучного інтелекту.

Загрози, пов’язані з штучним інтелектом, також можуть підірвати соціально-економічний порядок в сучасному світі. Інтелектуальні машини, що замінять нас у майбутньому, збільшать соціальний поділ на касти: зокрема на професії, що потребують високих знань і навичок та на робітників, праця яких автоматизована. Політикам доведеться відповісти на цей виклик і якось дати собі раду з масами безробітних.

Human Rights Watch

Human Rights Watch

Вищезгадані загрози, пов’язані зі штучним інтелектом, справа 10-15 років. Однак це зовсім не означає, що в даний час або в найближчому майбутньому нам не доведеться стикатися із загрозами, які виходять від штучного інтелекту. У доповіді під назвою «Злочинне використання штучного інтелекту: прогнозування, попередження і пом’якшення наслідків» (The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation) автори представляють потенційні ризики, які можуть виникнути в результаті використання штучного інтелекту в недалекому майбутньому. Вони відзначають, що, перш за все, ця технологія значно зменшить витрати на кібератаки, надаючи злочинцям можливість автоматизувати діяльність, яка раніше вимагала наявність людини-виконавця. Хорошим прикладом є spearphising, де шахраї намагаються належним чином підготувати повідомлення, щоб жертва вважала його правдивим. Це вимагає ретельного пошуку інформації про жертву в соціальних мережах, оскільки створене фальшиве повідомлення мусить максимально нагадувати реальне. Штучний інтелект зможе автоматично виконувати такі дії, знаходити інформацію про жертву, а потім генерувати фальшиві повідомлення. Можна також уявити собі чат-ботів, які настільки реалістично наслідуватимуть людей, що зможуть вдавати найкращого друга. Наприклад, під час звичайного діалогу вони можуть запитати про логін та пароль. Фішинг вже зараз являє собою дуже небезпечний інструмент, який часто використовують хакери. Він спричинив величезній витік даних з ICloud в 2014 році та викрадення повідомлень з електронної пошти Джона Подеста — голови передвиборчого штабу Гілларі Клінтон.

Штучний інтелект також додасть нові виміри до існуючих загроз. Наприклад, AI не тільки зможе дуже легко і швидко генерувати фальшиві тексти та повідомлення електронної пошти, але також в простий спосіб створюватиме фальшиві аудіовізуальні записи. Було проведено успішні експерименти,під час яких штучний інтелект через кілька хвилин прослуховування міг ефективно імітувати голос. Протягом наступних 5 років такі можливості можуть бути загальнодоступними, що надасть злочинцям великі можливості.

ICloud

ICloud

Використання штучного інтелекту також може зміцнити вже існуючі негативні практики. Фальшиві відеоролики та записи можуть використовуватися для політичного маніпулювання та пропаганди, але штучний інтелект також можна застосовувати для більш ефективного спостереження. Такі речі вже відбуваються в Китаї, де для контролю за мусульманською уйгурською меншиною використовуються системи розпізнавання обличчя та камери для спостереження за людьми. У даному випадку штучний інтелект може полегшувати категоризацію людей через їхню поведінку, обравши ту групу, яка являє собою потенційну загрозу. У майбутньому подібні системи в більшому масштабі будуть запроваджуватись в авторитарних державах, але і демократичні країни можуть використовувати їх для більш розгалуженого стеження за громадянами.

Штучний інтелект також може використовуватись терористами. Наприклад, цілком можливий сценарій, коли терористи приховують бомбу в роботі-прибиральнику та проводять його до будинку міністерства. Потім вони можуть використати автоматичні системи керування, що дозволить роботу-прибиральнику наблизитись до певного політика і привести в дію вибуховий пристрій. Тому вже зараз терористи цікавляться новими технологіями та устаткуванням на основі штучного інтелекту та вбудованими автоматичними функціями, такими, як відстеження.

Вже доходило до використанням алгоритмів штучного інтелекту зі злочинною метою. Технологія заміни обличчя була використана для створення так званих Deepfakes, де обличчя голлівудських зірок були вставлені в порнографічні фільми без їхньої згоди. У майбутньому це може застосовуватись для шантажу людей з метою вимагання з них грошей. Проте поки що немає жодного підтвердженого випадку. На щастя, інтернет-платформи дуже швидко заборонили такий вміст, що фактично перешкодило його поширенню. Безсумнівно, це вселяє оптимізм.

Як показують вищенаведені приклади, штучний інтелект вже зараз створює ризики для безпеки, а в майбутньому подібні загрози лише зростатимуть. Для того, щоб уникнути катастрофічного сценарію, автори рапорту «Злочинне використання штучного інтелекту: прогнозування, попередження і пом’якшення наслідків» рекомендують наступні дії.

Deepfakes

Deepfakes

* Вчені, які задіяні в проектах, спрямованих на розвиток штучного інтелекту, повинні брати до уваги в своїх дослідженнях можливість використання їх результатів для заподіяння шкоди.

* Політики мусять бути обізнаними та розуміти ризики, пов’язані з розвитком штучного інтелекту.

* Спеціалісти, що беруть участь в розробці цієї нової технології, повинні тісно співпрацювати з експертами з кібербезпеки, щоб краще розуміти цифрові загрози і мати змогу захистити системи штучного інтелекту.

* Необхідно розробити етичні принципи використання штучного інтелекту.

* Слід стимулювати обговорення, і залучати до них вчених, політиків, бізнесменів і доводити висновки до більш широкого загалу.

Нині є деякі позитивні ознаки реалізації вищевказаних пунктів. Законодавці в Сполучених Штатах дедалі частіше обмірковують зазначену проблему. Очевидною є щоразу більша зацікавленість урядів в обговоренні цього питання. Однак дана дискусія має розширюватись і бути націлена на пошук теоретичних відповідей на питання про найбільш критичні загрози і пропонувати їх практичні розв’язання.

«Розумний будинок»

«Розумний будинок»

Відсутність критичного мислення серед людей, в поєднанні з експоненціальним технічним прогресом, а особливо тих технологій, які є основним рушієм розвитку штучного інтелекту, має наслідком, що багато провідних мислителів у світі намагаються пробудити в нас рефлексію, перебільшуючи загрозу.

Самозрозуміла річ, що ніхто не повинен ухвалювати рішення за людину, бо скоро може виявитися, що ваш дім вирішить, що ви не маєте права залишити його, бо хворі, а автомобіль не дозволить їхати туди, куди ви хочете, бо прийде до висновку, що ви дуже зденервовані. Тому необхідно не допустити такого розвитку штучного інтелекту і не дозволяти, щоби машини ставали дедалі «розумнішими», а людина втратила здатність мислити самостійно.

Роман Кухаренко

Be the first to comment on "Співіснування людини та штучного інтелекту несе в собі багато потенційних загроз"

Leave a comment

Your email address will not be published.

*



*