Инженер на Google Sidelines, който твърди, че неговият AI е разумен

САН ФРАНЦИСКО – Google наскоро остави инженер в платен отпуск, след като отхвърли твърдението му, че неговият изкуствен интелект е разумен, което изплува на повърхността още един скандал относно най-модерната технология на компанията.

Блейк Лемойн, старши софтуерен инженер в организацията Responsible AI на Google, каза в интервю, че е пуснат в отпуск в понеделник. Отделът за човешки ресурси на компанията заяви, че той е нарушил политиката за поверителност на Google. Ден преди отстраняването му, Mr. Лемоан каза, че е предал документи на офис на американския сенатор, твърдейки, че са предоставили доказателства, че Google и нейната технология са участвали в религиозна дискриминация.

Google каза, че неговите системи имитират разговорен обмен и могат да рифират по различни теми, но нямат съзнание. „Нашият екип – включително специалисти по етика и технолози – прегледа опасенията на Блейк относно нашите принципи на изкуствен интелект и го информира, че доказателствата не подкрепят твърденията му“, каза Брайън Габриел, говорител на Google, в изявление. „Някои в по-широката общност на AI обмислят дългосрочната възможност за разумен или общ AI, но няма смисъл да го правят чрез антропоморфизиране на днешните разговорни модели, които не са разумни.“ Първо “Вашингтон пост”. докладвано Г-н. Суспензия на Lemoine.

Месеци наред г. Лемоан се караше с мениджъри, ръководители и човешки ресурси на Google заради изненадващото си твърдение, че езиковият модел на компанията за диалогови приложения, или LaMDA, има съзнание и душа. Google казва, че стотици нейни изследователи и инженери са разговаряли с LaMDA, вътрешен инструмент, и са стигнали до различно заключение от Mr. Лемоан го направи. Повечето експерти по изкуствен интелект смятат, че индустрията е много далеч от изчислителното съзнание.

Някои изследователи на ИИ отдавна правят оптимистични твърдения за тези технологии, които скоро достигат разума, но много други изключително бързо отхвърлят тези твърдения. „Ако използвахте тези системи, никога не бихте казали такива неща“, казва Емаад Хваджа, изследовател от Калифорнийския университет в Бъркли и Калифорнийския университет в Сан Франциско, който проучва подобни технологии.

Докато преследва авангарда на AI, изследователската организация на Google прекара последните няколко години потънала в скандали и противоречия. Учените и други служители на отдела редовно се враждуват по въпроси, свързани с технологиите и персонала в епизоди, които често се разпространяват на обществената арена. През март Google уволнен изследовател, който се е опитал да изрази публично несъгласие с публикуваните работи на двама негови колеги. И на уволнения на двама изследователи по етика на ИИ, Тимнит Гебру и Маргарет Мичъл, след като критикуваха езиковите модели на Google, продължиха да хвърлят сянка върху групата.

Г-н. Лемоан, военен ветеран, който се описва като свещеник, бивш затворник и изследовател на изкуствен интелект, каза на ръководители на Google като Кент Уокър, президент на глобалните въпроси, че вярва, че LaMDA е дете на 7 или 8 години . Той искаше компанията да потърси съгласието на компютърната програма, преди да провежда експерименти върху нея. Твърденията му се основават на религиозните му убеждения, които според него са дискриминирани от отдела за човешки ресурси на компанията.

„Те многократно поставяха под съмнение здравия ми разум“, каза г-н. – каза Лемоан. „Казаха:„ Били ли сте проверени от психиатър наскоро?“ През месеците преди да бъде пуснат в административен отпуск, компанията му предложи да вземе отпуск за психично здраве.

Ян Лекун, ръководител на изследванията на AI в Meta и ключова фигура в възхода на невронните мрежи, каза в интервю тази седмица, че този тип системи не са достатъчно мощни, за да постигнат истински интелект.

Технологията на Google е това, което учените наричат ​​а невронна мрежа, която е математическа система, която усвоява умения чрез анализиране на големи количества данни. Чрез точно определяне на модели в хиляди снимки на котки, например, то може да се научи да разпознава котка.

През последните няколко години Google и други водещи компании го направиха проектирани невронни мрежи, които са се учили от огромни количества проза, включително непубликувани книги и статии в Уикипедия от хиляди. Тези „големи езикови модели“ могат да бъдат приложени към много задачи. Те могат да обобщават статии, да отговарят на въпроси, да генерират туитове и дори да пишат публикации в блогове.

Но те са изключително погрешни. Понякога те създават перфектна проза. Понякога генерират глупости. Системите са много добри в пресъздаването на модели, които са виждали в миналото, но не могат да разсъждават като човек.

Leave a Comment