Будинки Аудіо Чому дослідження Дарпи пояснюється аі?

Чому дослідження Дарпи пояснюється аі?

Anonim

Q:

Чому DARPA досліджує "пояснюваний ШІ"?

A:

Взагалі, пояснювальний штучний інтелект стає набагато провісною частиною передової роботи з наукових даних. Це допомагає керувати людським контролем над нестабільним та динамічним типом технологій - пояснюваний ІІ допомагає відповісти на багато наших колективних питань про те, як буде працювати штучний інтелект.

Щоб зрозуміти пояснюваний ШІ, це допомагає зрозуміти, як виглядає "звичайний ШІ". Традиційно, коли AI починає формуватися, типовий проект складається з фантазійних нових можливостей програмного забезпечення, прихованих в алгоритмах і навчальних наборах та лінійному коді, це свого роду "блок блоку" для користувачів. Вони знають, що це працює - вони просто не знають, як саме.

Це може призвести до "питань довіри", коли користувачі можуть ставити під сумнів основи, на яких технологія приймає рішення. Ось до чого слід звернути увагу пояснюваного інструменту інтелектуальної власності: Пояснювані проекти AI мають додаткову інфраструктуру, щоб показати кінцевим користувачам намір та структуру AI - чому він робить те, що робить.

У епоху, коли провідні інноватори, такі як Білл Гейтс та Елон Маск, висловлюють занепокоєння з приводу того, як буде працювати штучний інтелект, пояснюваний ШІ видається надзвичайно привабливим. Експерти стверджують, що добре пояснюваний ІІ може допомогти кінцевим користувачам зрозуміти, чому технології роблять те, що вони роблять, підвищить довіру, а також збільшить простоту використання та використання цих технологій.

Зокрема, DARPA пояснює самостійно, чому він зацікавлений у нових проектах. На сторінці DARPA видно, що Міністерство оборони передбачає "потік" додатків штучного інтелекту та деяку кількість хаосу в його розвитку.

"Постійний прогрес обіцяє створити автономні системи, які сприйматимуть, навчатимуться, приймуть рішення та діятимуть самостійно", - пише Девід Ганнінг. "Однак ефективність цих систем обмежена поточною нездатністю машини пояснювати свої рішення та дії людям. … Пояснюваний ШІ, особливо пояснення машинного навчання, буде важливим, якщо майбутні воїни зрозуміють, належним чином довірять і ефективно керують новим поколінням штучно інтелектуальних партнерів машин ».

Інтернет-нарис Ґаннінга дозволяє припустити, що роз'яснювані системи ШІ допоможуть «забезпечити обґрунтування» технологій, показати їх сильні та слабкі сторони та зробити випадки використання більш прозорими. На графіці на сторінці показано, як прямий контур функціональних можливостей штучного інтелекту з навчальних даних доповнюватиметься чимось, що називається зрозумілою моделлю та пояснювальним інтерфейсом, який допоможе користувачеві відповісти на запитання. Далі Ганнінг пропонує, що програма, що пояснює AI, матиме дві основні сфери фокусування - одна буде просіювати мультимедійні дані, щоб знайти корисні для користувачів, а другий фокус - моделювання процесів прийняття рішень для підтримки прийняття рішень.

DARPA сподівається надати "інструментарій", який може допомогти розробити майбутні роз'яснювальні системи ШІ.

Чому дослідження Дарпи пояснюється аі?