Q:
Як робот "Софія" Саудівської Аравії викликає страхітливі нові питання щодо кібербезпеки?
A:Однією з найгарячіших нових технологій штучного інтелекту є робочий розмір у натуральному розмірі, створений для того, щоб виглядати як жінка.
Її звуть Софія, її виробляє компанія Hanson Robotics, гонконгська компанія. Чому це робот Саудівської Аравії? Тому що ця затока надала Софії ключове право людини: право громадянства.
Це створює багато заголовків і викликає всілякі дебати про те, як швидко йде штучний інтелект, і чому нам слід дбати. Одне з великих питань - кібербезпека - як поле кібербезпеки адаптується до цих типів нових технологій?
Софія та подібні технології викликають ключові проблеми кібербезпеки, яких ми раніше не вирішували. Ось деякі речі, над якими повинні замислюватися професіонали та експерти, коли вони вводять роботів, які виглядають, говорять та діють як ми.
Взагалі новий робототехнічний інтерфейс є більш досконалим, ніж ми звикли раніше, і це означає цілий ряд нових проблем кібербезпеки. У світі технологій люди говорять про наявність «тонкої поверхні атаки», наприклад, у налаштуваннях гіпервізора або вбудованому в безпеку на стороні сервера. З іншого боку, гуляючий робочий робот - це дуже товста поверхня атаки - оскільки інтерфейси складні, хакерам та поганим акторам існує багато способів використання вразливих місць.
Один дуже специфічний тип проблеми кібербезпеки є певним чином змішаним із різноманітними соціальними проблемами - можна назвати це "синдромом самозванця", хоча цей термін в народі використовувався для опису змін у роботі нелегітимних науковців даних.
Як би ви цього не називали, проблема полягає в тому, що оскільки штучний інтелект наслідує конкретних людей з більшими ступенями успіху, стає важче переконатися, що ми не піддаємось надзвичайно детальним обманам, які змушують нас ставити під сумнів правду. Ви вже можете побачити приклади людей, які використовують нові технології, щоб імітувати відомих політиків, як у цьому відео Барака Обами за участю коміка Джордана Пілі. Проблема самозванця лише зростатиме та розширюватиметься, коли штучний інтелект відкриває нам нові вікна в реверсивні інженерні думки та поведінку людини.
Крім того, в цілому ці нові інтерфейси та можливості будуть ескалювати вже триваючу гонку озброєнь між фахівцями з безпеки та хакерами. Про це пише Джеймс Мод у статті про Xconomy, називаючи AI "мечем з двома кінцями" для кіберсексу та вказує, що в цілому напади є менш затратними, ніж захист та зауваження щодо занепокоєння щодо конфіденційності та безпеки. Екстраполюйте деякі з цих аргументів на робот AI, і ви можете побачити, як із силою та можливостями виникає небезпека та необхідність дисципліни.
Ще одна нова проблема, що стосується Софії та мобільних роботів, - це те, що вони рухаються.
Ми звикли до таких технологій, як IBM Watson, які виконують надзвичайно високу пізнавальну роботу, залишаючись сидячи в центрі обробки даних або в якійсь стаціонарній апаратній структурі. Це те, до чого ми звикли - від найдавніших мейнфреймів до сьогоднішніх ноутбуків, ми всі використовували стаціонарне обладнання. Зараз у нас є мобільні телефони, але вони насправді кишенькові комп’ютери. Орієнтовані робототехнічні комп'ютери надзвичайно різні. Вони є автономними рухомими частинами, які можуть бути збройні зловмисниками. Стаття Reuters, яка розглядає швидкість вирішення проблем кібербезпеки роботів, показує, як, наприклад, роботів можна примусити «ховатися» або рухатись швидко та неналежним чином, щоб потенційно заподіяти шкоду.
Врешті-решт, Софія та такі роботи, як вона, викликали низку проблем кібербезпеки та інших проблем. Як ми будемо відрізняти законну діяльність від оманливої та нелегітимної діяльності, коли інтерфейс - це не мережа, що зв’язана цифровою мережею, а мобільний апарат, який може наштовхнути нас на думку, що вона діє по-людськи? Перехід цього моста потребує величезної кількості технологічних та етичних робіт, щоб переконатися, що люди тримають лейці і що ми використовуємо ці дуже потужні технології для громадянського блага.