Зміст:
Фахівці з кібербезпеки дивляться на штучний інтелект (ШІ) і з ентузіазмом, і з трепетом. З одного боку, він має потенціал додати абсолютно нові шари оборони для критичних даних та інфраструктури, але з іншого, він також може бути використаний як потужна зброя для перешкоджання цим оборонам, не залишаючи сліду.
Як і будь-яка технологія, AI має як переваги, так і слабкі сторони, які можна використати. Завдання сучасних експертів з безпеки полягає в тому, щоб зробити крок попереду поганих хлопців, що має початися з чіткого розуміння того, як саме AI може використовуватися як образлива зброя даних.
Злом AI
З одного боку, каже Ніколь Кобі від Wired, ми повинні визнати, що, як і будь-яке середовище даних, AI може бути зламана. В основі кожного інтелектуального процесу лежить алгоритм, і алгоритми відповідають на отримані ними дані. Дослідники вже показують, як нейронні мережі можуть бути підмануті, обдумуючи картину черепахи, насправді це зображення гвинтівки і як простий наклейка на знаку зупинки може призвести до того, що автономний автомобіль заїжджає прямо на перехрестя. Цей тип маніпуляцій можливий не тільки після розгортання ШІ, але і тоді, коли він проходить навчання, потенційно даючи хакерам можливість спричиняти всі види хаосу, не торкаючись інфраструктури підприємства-клієнта.
