«Боти вигадали власну мову, тому Facebook їх відключив» — що трапилося насправді

0














01.08.2017 16:05

У Лабораторії дослідження штучного інтелекту Facebook (FAIR) працюють над створенням і навчанням ботів-«діалогових агентів», здатних вести переговори.

Їх навчали за відомою схемою: у діалозі є дві сторони (бота), у них є однаковий набір об’єктів — наприклад, дві книги, одна капелюх, три м’ячі, але в кожному випадку цінність цих об’єктів відрізняється (наприклад, для агента 1 об’єкт «м’яч» коштує 3 умовних бали, для агента-2 — нуль). Другого агенту невідомі ці значення і в ході переговорів вони повинні переділити між собою об’єкти, домагаючись того, щоб зібрати найбільш цінні для себе. Сценарії переговорів створювалися таким чином, щоб боти ніколи не змогли одночасно отримати кращі умови по угоді.

Агенти повинні були створювати симуляції майбутніх переговорів, щоб зрозуміти, як досягти максимальних балів.

Інженери виклали код ботів на GitHub і опублікували результати дослідження. Але в новини боти Facebook потрапили не тому. У червні цього року з’явилися повідомлення про те, що боти в процесі переговорів створили щось на зразок власної мови, були опубліковані навіть витримки таких розмов:

Bob: i can i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i i can i i i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i . . . . . . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i i i i i everything else . . . . . . . . . . . . . .
Alice: balls have 0 to me to me to me to me to me to me to me to me to
Bob: you i i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to

А днями почали з’являтися новини в стилі «Інженери Facebook запанікували, відключивши ботів, які винайшли власний мову» чи «Facebook відключає ШІ, який винаходить свій моторошний мову». Зрозуміло, що передбачає така подача: «Скайнет» нарешті набирає чинності і починає бунт проти людей в реалі. Ці новини вдало співпали з перестрілкою Марка Цукерберга та Ілона Маска про погрози людству з боку штучного інтелекту.

Що сталося насправді?

Нічого настільки драматичного, щоб говорити про вбивство зароджується у свідомості ботів. А дивний і моторошний мова, якою спілкувалися боти, пояснюється і зовсім просто. Запрошений у Facebook дослідник з Georgia Tech Дхрув Батра пояснив, що ботам просто не поставили умову спілкуватися згідно з правилами англійської мови. В намаганнях навчитися один на одного, боти почали домагатися максимальної ефективності і скорочувати/комбінувати шматки повідомлень, звідси і з’явилися дивні фрази.

«Агенти відійшли від зрозумілої мови, придумали власні кодові слова. Як, приміром, якщо назвати предмет п’ять раз, це буде означати, що потрібні п’ять копій цього предмета. Цей процес не так сильно відрізняється від того, як люди придумують скорочення», — говорить Батра.

З цієї мовної помилкою і пов’язано закриття спілкування. Як пояснив дослідник з FAIR Майк Льюїс, завданням інженерів було створення роботів, які будуть вміти вести переговори з людьми зрозумілою мовою, а не вести переговори між собою.

Нагадаємо, Марк Цукерберг нещодавно назвав «безвідповідальними» припущення Ілона Маска про погрози штучного інтелекту. На це Маск відповів, що у Цукерберга обмежене знання предмета.

Помітили помилку? Виділіть її та натисніть Ctrl+Enter, щоб повідомити нам.

Источник

Натисніть на стрілку що б перейти до наступної сторінки

Оставить комментарий