Від реактивних роботів до сентиментальних машин: 4 типи ШІ

Pin
Send
Share
Send

Поширений і повторюваний погляд на останні прориви в дослідженні штучного інтелекту полягає в тому, що розумні та розумні машини просто на горизонті. Машини розуміють словесні команди, розрізняють картинки, водять машини та грають у ігри краще, ніж ми. Скільки часу може пройти, перш ніж вони пройдуться серед нас?

Новий звіт Білого дому про штучний інтелект належним чином скептично оцінює цю мрію. Він говорить про те, що наступні 20 років, швидше за все, не побачать, що машини "демонструватимуть широко застосовний інтелект, порівнянний з людським або перевищує його", хоча це продовжує говорити, що в найближчі роки "машини досягнуть і перевищують продуктивність людини на більше і більше завдань ». Але його припущення про те, як ці можливості розвиватимуться, пропустили деякі важливі моменти.

Як дослідник ШІ, я визнаю, що було приємно, щоб моє власне поле було висвітлено на найвищому рівні американського уряду, але звіт зосереджувався майже виключно на тому, що я називаю "нудним видом ШІ". У половині речення він відхилив мою гілку досліджень ШІ про те, як еволюція може допомогти розвивати постійно вдосконалювані системи ШІ, і як обчислювальні моделі можуть допомогти нам зрозуміти, як розвивався наш людський інтелект.

Звіт зосереджується на тому, що можна назвати основними інструментами ШІ: машинне навчання та глибоке навчання. Це різновиди технологій, які змогли зіграти "Опасності!" ну, і перемагайте людей Go Go господарів у найскладнішій грі, коли-небудь винайденій. Ці сучасні інтелектуальні системи здатні обробляти величезну кількість даних і робити дуже складні обчислення дуже швидко. Але їм не вистачає елемента, який буде ключовим для створення розумних машин, які ми маємо уявити в майбутньому.

Нам потрібно зробити більше, ніж навчити машинам вчитися. Нам потрібно подолати межі, які визначають чотири різних типи штучного інтелекту, бар'єри, що відокремлюють машини від нас - і нас від них.

AI типу I: реактивні машини

Найбільш основні типи систем ШІ є чисто реактивними і не мають можливості ні формувати спогади, ні використовувати минулий досвід для інформування про поточні рішення. Deep Blue, шахматний суперкомп'ютер IBM, який переміг міжнародного гросмейстера Гаррі Каспарова в кінці 1990-х років, є прекрасним прикладом такого типу машин.

Deep Blue може визначити фігури на шаховій дошці і знати, як рухається кожен. Він може передбачити, які кроки можуть бути наступними для нього та його опонента. І він може вибрати найбільш оптимальні кроки з-поміж можливостей.

Але в ній немає ні минулого поняття, ні пам’яті про те, що відбувалося раніше. Крім рідко використовуваного шахового правила проти повторення одного і того ж ходу тричі, Deep Blue ігнорує все до цього моменту. Все, що він робить, - це подивитися на фігури на шаховій дошці, як вона стоїть зараз, і вибрати один з можливих наступних кроків.

Цей тип інтелекту передбачає, що комп'ютер сприймає світ безпосередньо і діє на те, що бачить. Це не спирається на внутрішню концепцію світу. У науковому документі дослідник AI Родні Брукс стверджував, що ми повинні будувати лише такі машини. Його основна причина полягала в тому, що люди не дуже добре програмують точні імітовані світи для використання комп'ютерів, що в стипендії AI називається "представленням" світу.

Нинішні інтелектуальні машини, якими ми дивуємось, або не мають такого світового поняття, або мають дуже обмежену та спеціалізовану для своїх конкретних обов'язків. Нововведення в дизайні Deep Blue не полягало в тому, щоб розширити коло можливих фільмів, про які розглядався комп'ютер. Швидше за все, розробники знайшли спосіб звузити свою точку зору, припинити переслідувати деякі можливі майбутні кроки, виходячи з того, як вона оцінила їх результат. Без цієї здатності Deep Blue потрібно було б стати ще більш потужним комп'ютером, щоб насправді перемогти Каспарова.

Аналогічно, AlphaGo Google, який переміг найкращих експертів Go Go, не може також оцінити всі можливі майбутні кроки. Метод його аналізу є більш складним, ніж Deep Blue, використовуючи нейронну мережу для оцінки розвитку ігор.

Ці методи покращують здатність системи AI краще грати в певні ігри, але їх не можна легко змінити або застосувати в інших ситуаціях. Ці комп’ютеризовані уяви не мають поняття широкого світу - це означає, що вони не можуть функціонувати за межами визначених їм завдань і їх легко обдурити.

Вони не можуть інтерактивно брати участь у світі, як ми можемо уявити системи AI одного дня. Натомість ці машини будуть поводитись точно так само щоразу, коли вони стикаються з однією і тією ж ситуацією. Це може бути дуже корисно для забезпечення надійності системи AI: Ви хочете, щоб ваш автономний автомобіль був надійним водієм. Але це погано, якщо ми хочемо, щоб машини по-справжньому взаємодіяли зі світом та реагували на них. Ці найпростіші системи AI ніколи не будуть нудьгувати, не цікавитись, ні сумно.

AI типу II: Обмежена пам'ять

Цей клас II містить машини, які можуть заглянути в минуле. Автомобільні машини вже роблять щось із цього. Наприклад, вони спостерігають за швидкістю та напрямком інших автомобілів. Це неможливо зробити лише за одну мить, а вимагає ідентифікації конкретних об'єктів та моніторингу їх у часі.

Ці спостереження додаються до попередньо запрограмованих уявлень про автомобілі, що керують автомобілями, які також містять розмітку смуги руху, світлофори та інші важливі елементи, як криві на дорозі. Вони включаються, коли машина вирішує, коли міняти смуги руху, щоб уникнути відсікання іншого водія чи удару в сусідній автомобіль.

Але ці прості відомості про минуле є лише тимчасовими. Вони не зберігаються як частина бібліотеки досвіду автомобіля, на якій він може навчитися, як люди-водії збирають досвід протягом багатьох років за кермом.

Тож як ми можемо побудувати системи AI, які будують повноцінні уявлення, запам’ятовують їхній досвід та навчаються вирішувати нові ситуації? Брукс мав рацію в тому, що зробити це дуже важко. Моє власне дослідження методів, навіяних еволюцією дарвінів, може почати компенсувати недоліки людини, дозволяючи машинам будувати власні уявлення.

ІІІ тип ІІ: Теорія розуму

Ми можемо зупинитися тут і назвати цей момент важливим розривом між машинами, які ми маємо, і машинами, які ми будемо будувати в майбутньому. Однак краще бути більш конкретним, щоб обговорити типи представлень, які машини повинні формувати, і про те, що вони повинні мати.

Машини наступного, більш досконалого класу формують не лише уявлення про світ, але й про інших агентів чи сутність у світі. У психології це називається "теорією розуму" - розумінням того, що люди, істоти та об'єкти у світі можуть мати думки та емоції, які впливають на їх власну поведінку.

Це має вирішальне значення для того, як ми, люди, формували товариства, оскільки вони дозволяли нам мати соціальну взаємодію. Без розуміння мотивів та намірів один одного та без врахування того, що хтось інший знає про мене чи про навколишнє середовище, працювати разом у кращому випадку складно, а в гіршому - неможливо.

Якщо системи AI дійсно коли-небудь будуть ходити серед нас, вони повинні мати можливість зрозуміти, що кожен з нас має думки та почуття та очікування щодо того, як до нас поводиться. І їм доведеться відповідно коригувати свою поведінку.

AI типу IV: самосвідомість

Останнім кроком розвитку ШІ є побудова систем, які можуть формувати уявлення про себе. Зрештою, нам, дослідникам ШІ, доведеться не тільки розуміти свідомість, але й будувати машини, які його мають.

Це в певному сенсі розширення "теорії розуму", якою володіють штучні інтелекту III типу. Свідомість також називається «самосвідомістю» з причини. ("Я хочу, щоб цей предмет" - це зовсім інше твердження від "Я знаю, що хочу цього предмета".) Свідомі істоти знають про себе, знають про свої внутрішні стани і вміють передбачати почуття інших. Ми припускаємо, що хтось хитається за нами в дорожньому русі, є злим чи нетерплячим, тому що так ми почуваємось, коли хилимось до інших. Без теорії розуму ми не могли б зробити такі види висновків.

Хоча ми, мабуть, далеко не створюємо самосвідомих машин, ми повинні зосередити свої зусилля на розумінні пам’яті, навчанні та здатності базувати рішення на минулому досвіді. Це важливий крок для розуміння людського інтелекту самостійно. І це дуже важливо, якщо ми хочемо розробити або розвинути машини, які є більш ніж винятковими для класифікації того, що вони бачать перед собою.

Аренд Хінце, доцент кафедри інтегративної біології та інформатики та техніки, Мічиганський державний університет

Pin
Send
Share
Send