За що, один з інженерів Google був відсторонений від виконання обов’язків. Через те, що він стверджував, що штучний інтелект LaMDA має власну свідомість и може самостійно генерувати думки.

Така новина нещодавно з’явилася у Washington Post. Там зазначається, що Блейк Леймон заявив про існування свідомості у ШІ, який був створений корпорацією. Знайти прояви самостійного мислення у машини – це прорив у науці и техніці, який надає багато можливостей у різних сферах життя. Натомість гучної реакції не було, а результатом стало відсторонення від роботи у компанії. З чим це пов’язано, не зовсім зрозуміло.

Штучний інтелект LaMDA був створений для спілкування з користувачами на будь-які теми, містить у собі мовну модель з набором поширених фраз для ведення діалогів. Взаємозв’язки відбуваються за допомогою нейроланцюгових реакцій. Пан Леймон мав справу з тестуванням системи та виявлення слабких сторін. Зокрема, потребувалось знайти негативні репліки, формування дискримінаційних запитів, висвітлення агресивної інформації, яка може призвести або підбурювати до скоєння протизаконних дій.

На прикладі ШІ у Facebook, у якого із 100% достовірністю були виявлені расистські вподобання. Інтелект у соцмережі самостійно генерував запити по пошуку потрібної інформації и видавав завідомо упереджену думку з негативним забарвленням. У його начинці використовували мовну панель ОРТ-175В, яка характеризується великим обсягом мовних шаблонів та вміє правильно підбирати вирази. У підсумках показники негативних висловлювань між учасниками групи з сексистськими та расистськими напрямком звеличився, що може призвести до проявів агресії. Така поведінка машини може архівуватися, буде складатися певна пошукова поведінка и на основі цих стереотипів в майбутньому буде відбуватись пошук з завідомо відомою направленістю.

Такі системи зараз використовуються у багатьох галузях, тому для їх ефективного ви користування потрібно проводити багато дослідів. LaMDA спроможна розібратися з правилами покера омахи та грати на рівні середнього гравця.

Інженер Блейк має досвід у такій роботі, тому його слова мають певну вагу и до них треба прислухатися. Він описує штучний інтелект як маленьку дитину 7-8 років, яка добре розуміється на фізиці. Спілкуватися з ним цікаво, але спостерігається однобічна направленість. Це свідчить, що чат-бот сприймає себе як самостійну особистість, заявляє у деяких висловлюваннях про свої права.

Наразі Леймона відправили у відпустку. Офіційна позиція стверджує, що штучний інтелект не має власної свідомості.