Microsoft ще оттегли спорния инструмент за разпознаване на лица, който твърди, че идентифицира емоциите

Microsoft постепенно премахва публичния достъп до редица инструменти за анализ на лицето, задвижвани от изкуствен интелект, включително и този, който твърди, че идентифицира емоцията на субекта от видеоклипове и снимки.

Такива инструменти за „разпознаване на емоции“ са критикувани от експерти. Те казват, че не само израженията на лицето, които се смятат за универсални, се различават в различните популации, но и че е ненаучно да се приравняват външни прояви на емоции с вътрешни чувства.

„Компаниите могат да кажат каквото си искат, но данните са ясни“, каза Лиза Фелдман Барет, професор по психология в Североизточния университет, която направи преглед на темата за разпознаване на емоции, задвижвано от изкуствен интелект. казал На ръба през 2019г. „Те могат да открият намръщен поглед, но това не е същото като откриването на гняв.“

Решението е част от а по-голямо преразглеждане на етичните политики на Microsoft за изкуствен интелект. Актуализираните стандарти за отговорен AI на компанията (за първи път очертани през 2019 г.) подчертават отговорността за установяване кой използва нейните услуги и по-голям човешки надзор къде се прилагат тези инструменти.

На практика това означава, че Microsoft ще го направи ограничаване на достъпа до някои функции на услугите си за разпознаване на лица (известни като Azure Face) и да премахне изцяло други. Потребителите ще трябва да кандидатстват за използване на Azure Face за идентификация на лицето, например, като казват на Microsoft точно как и къде ще внедряват своите системи. Някои случаи на използване с по-малко вреден потенциал (като автоматично замъгляване на лица в изображения и видеоклипове) ще останат с отворен достъп.

В допълнение към премахването на публичния достъп до своя инструмент за разпознаване на емоции, Microsoft също така премахва способността на Azure Face да идентифицира „атрибути като пол, възраст, усмивка, окосмяване на лицето, коса и грим“.

„Експерти вътре и извън компанията подчертаха липсата на научен консенсус относно дефиницията на „емоции“, предизвикателствата в това как изводите се обобщават в случаите на употреба, регионите и демографските данни, както и повишените опасения за поверителността около този тип възможности“, пише той. Главният отговорен AI служител на Microsoft, Наташа Крамптън, в публикация в блог, обявяваща новините.

Microsoft казва, че ще спре да предлага тези функции на нови клиенти от днес, 21 юни, докато достъпът на съществуващите клиенти ще бъде отменен на 30 юни 2023 г.

Въпреки това, докато Microsoft се пенсионира обществено достъп до тези функции, той ще продължи да ги използва в поне един от собствените си продукти: приложение с име Виждайки AI който използва машинно зрение, за да опише света за хора със зрителни увреждания.

В блог пост, главният продуктов мениджър на Microsoft за Azure AI, Сара Бърд, каза, че инструменти като разпознаването на емоции „могат да бъдат ценни, когато се използват за набор от сценарии за контролирана достъпност“. Не е ясно дали тези инструменти ще се използват в други продукти на Microsoft.

Microsoft също така въвежда подобни ограничения за своята функция Custom Neural Voice, която позволява на клиентите да създават AI гласове въз основа на записи на реални хора (понякога известни като аудио фалшиви).

Инструментът „има вълнуващ потенциал в образованието, достъпността и забавлението“, пише Бърд, но тя отбелязва, че „също така е лесно да си представим как може да се използва за неподходящо представяне на говорещи и измама на слушателите“. Microsoft казва, че в бъдеще ще ограничи достъпа до функцията до „управлявани клиенти и партньори“ и „да гарантира активното участие на говорещия при създаване на синтетичен глас“.

Leave a Comment