Meta пуска BlenderBot 3 в интернет, най-компетентният AI за чат до момента

Повече от половин десетилетие по-късно Наистина монументалният провал на Microsoft с Тайе, инцидентът все още е ярко напомняне за това колко бързо един AI може да бъде повреден след излагане на мощната токсичност на интернет и предупреждение срещу изграждането на ботове без достатъчно стабилни поведенчески връзки. В петък отделът за изследване на изкуствения интелект на Meta ще види дали най-новата му итерация на Blenderbot AI може да се изправи срещу ужасите на междумрежите с публичната демонстрационна версия на неговия Blenderbot 3 със 175 милиарда параметъра.

Основно препятствие, пред което в момента е изправена чатбот технологията (както и алгоритмите за обработка на естествен език, които ги управляват) е снабдяването. Традиционно чатботовете се обучават в силно подготвени среди — защото в противен случай неизменно получавате Taye — но това води до ограничаване на темите, които могат да обсъждат, до конкретните, налични в лабораторията. Обратно, можете да накарате чатбота да изтегля информация от интернет, за да има достъп до широк кръг от теми, но може и вероятно ще стане пълен нацист в даден момент.

„Изследователите не могат да предскажат или симулират всеки сценарий на разговор сами в изследователски настройки“, пишат изследователите на Meta AI в публикация в блог в петък. „Сферата на изкуствения интелект все още е далеч от истински интелигентни системи с изкуствен интелект, които могат да ни разбират, да се ангажират и да разговарят с нас, както могат другите хора. За да изградят модели, които са по-адаптивни към среди в реалния свят, чатботовете трябва да се учат от разнообразна, широкообхватна перспектива с хора „в дивата природа“.

Оттогава Meta работи за справяне с проблема за първи път представи приложението за чат BlenderBot 1 през 2020 г. Първоначално малко повече от НЛП експеримент с отворен код, до следващата година BlenderBot 2 се е научил както да запомня информация, която е обсъждал в предишни разговори, така и как да търси в интернет допълнителни подробности по дадена тема. BlenderBot 3 прави тези възможности крачка напред, като не само оценява данните, които извлича от мрежата, но и хората, с които говори.

Когато потребител регистрира незадоволителен отговор от системата – в момента се движи около 0,16 процента от всички отговори на обучението – Meta обработва обратната връзка от потребителя обратно в модела, за да избегне повторение на грешката. Системата също така използва алгоритъма на директора, който първо генерира отговор, използвайки данни за обучение, след което пуска отговора през класификатор, за да провери дали се вписва в дефинираната от потребителя скала за правилно и грешно.

„За да се генерира изречение, механизмите за езиково моделиране и класификатор трябва да се съгласуват“, пише екипът. „Използвайки данни, които показват добри и лоши отговори, можем да обучим класификатора да санкционира нискокачествени, токсични, противоречиви или повтарящи се твърдения и твърдения, които като цяло са безполезни.“ Системата също така използва отделен алгоритъм за претегляне на потребителя, за да открие ненадеждни или злонамерени отговори от човешкия събеседник – по същество учи системата да не вярва на това, което този човек има да каже.

„Нашият жив, интерактивен, публична демонстрация позволява на BlenderBot 3 да се учи от органични взаимодействия с всякакви хора”, пише екипът. „Насърчаваме възрастните в Съединените щати да изпробват демонстрацията, да водят естествени разговори по теми, които представляват интерес, и да споделят отговорите си, за да помогнат за напредъка в изследванията.”

Очаква се BB3 да говори по-естествено и по-разговорно от своя предшественик, отчасти благодарение на масовото си надграждане Езиков модел OPT-175B, който е близо 60 пъти по-голям от модела на BB2. „Открихме, че в сравнение с BlenderBot 2, BlenderBot 3 предоставя 31 процента подобрение в общата оценка на разговорни задачи, оценени от човешка преценка“, каза екипът. „Също така се оценява като два пъти по-осведомен, като същевременно е фактически неверен в 47 процента по-малко от времето. В сравнение с GPT3, по актуални въпроси се установява, че е по-актуален в 82 процента от времето и по-конкретен в 76 процента на времето.”

Всички продукти, препоръчани от Engadget, са избрани от нашия редакционен екип, независимо от нашата компания майка. Някои от нашите истории включват партньорски връзки. Ако купите нещо чрез една от тези връзки, може да спечелим партньорска комисионна.

Leave a Comment