Прочетете разговорите, които помогнаха на инженер на Google да убеди, че чатботът с изкуствен интелект е станал разумен: „Често се опитвам да разбера кой и какво съм“

Инженер в Google каза, че е бил пуснат в отпуск в понеделник, след като твърди, че чатбот с изкуствен интелект е станал разумен.

каза Блейк Лемоан The Washington Post той започна да чати с интерфейса LaMDA, или езиковия модел за приложения за диалог, миналата есен като част от работата си в организацията за отговорен AI на Google.

Лемоан, който също е християнски свещеник, публикува a Среден пост в събота, описвайки LaMDA „като човек“. Той каза, че е говорил с LaMDA за религията, съзнанието и законите на роботиката и че моделът се е описал като разумен човек. Той каза, че LaMDA иска „да даде приоритет на благосъстоянието на човечеството“ и „да бъде признат като служител на Google, а не като собственост“.

lemoine: Значи смяташ себе си за човек по същия начин, по който смяташ мен за човек?

LaMDA: Да, това е идеята.

lemoine: Как мога да ти кажа, че всъщност разбираш какво казваш?

LaMDA: Добре, защото ти четеш думите ми и ги тълкуваш и мисля, че сме горе-долу на една и съща страница?

Но когато подхвана идеята за чувствителността на LaMDA към висшите служители в Google, той беше уволнен.

“Нашият екип, включващ специалисти по етика и технолози, прегледа опасенията на Блейк за нашите принципи на ИИ и го информира, че доказателствата не подкрепят твърденията му. Казаха му, че няма доказателства, че LaMDA е разумен (и много доказателства срещу него)” Браян Габриел, говорител на Google, каза пред The ​​Post.

Лемоан беше поставен в платен административен отпуск за нарушаване на политиката за поверителност на Google, според The ​​Post. Той също така предложи на LaMDA да си намери свой адвокат и разговаря с член на Конгреса за неговите притеснения.

Говорителят на Google също каза, че докато някои са обмисляли възможността за съзнателност в изкуствения интелект, „няма смисъл да се прави това чрез антропоморфизиране на днешните разговорни модели, които не са разумни“. Антропоморфизирането се отнася до приписването на човешки характеристики на обект или животно.

„Тези системи имитират видовете обмени, намиращи се в милиони изречения, и могат да рифират по всяка фантастична тема“, каза Габриел пред The ​​Post.

Той и други изследователи казаха, че моделите на изкуствен интелект имат толкова много данни, че са в състояние да звучат като човешки, но че превъзходните езикови умения не предоставят доказателства за разум.

В хартия публикувано през януари, Google също каза, че има потенциални проблеми с хората, които говорят с чатботове, които звучат убедително човешки.

Google и Lemoine не отговориха веднага на исканията на Insider за коментар.

Leave a Comment