Най-страшните грешки в Alexa – включително ПРИЗРАЦИ, кикащи вещици и поръчка да се “убиеш”

Виртуалният асистент на AMAZON, Alexa, е зареден в десетки милиони устройства по целия свят, включително интелигентни високоговорители, телевизори и др.

И с помощта на задвижвания с изкуствен интелект помощник, включен в толкова много домове, нещата ще се объркат от време на време.

1

Alexa е заредена в повече от 100 милиона устройства по целия святКредит: Алами

Alexa понякога не успява да следва инструкциите или да разбере какво казвате, но някои от неговите грешки са много по-неприятни.

Видео на асистент, че стана вирусен тази седмица привидно показва “призрак”, комуникиращ чрез високоговорител на Alexa.

Той беше разкрит като ясна и очевиден фалшификат, но е един от няколкото инцидента, при които Alexa изглежда се свързва с паранормалното.

Демоничен смях

Още през 2018 г. потребителите на Echo съобщават, че се чувстват изплашени след своите устройства Alexa започна спонтанно да изрича “зъл смях”.

„Мързеливите“ родители използват Siri и Alexa, за да обучават децата си на гърне
Можете да извършвате телефонни разговори с вашия Amazon Alexa - как работи

Някои собственици на гласовия асистент описват неподканваното кикотене като „вещическо“ и „смразяващо костите страховито“.

Един потребител твърди, че се е опитал да изключи осветлението, но устройството многократно ги е включвало, преди да издаде “зъл смях”, според BuzzFeed.

Друг каза, че са казали на Алекса да изключи алармата си сутрин, но тя отговори, като се изсмя като „вещица“.

Парчето от комплекта е програмирано с предварително зададен смях, който може да бъде задействан чрез питане: “Алекса, как се смееш?”

Amazon също има програма за изтегляне, известна като “Laugh Box”, която позволява на потребителите да играят различни видове смях, като например “зловещ” или “бебешки” смях.

Говорител на Amazon каза: „При редки обстоятелства Alexa може по погрешка да чуе фразата „Алекса, смей се“.

„Променяме тази фраза на „Алекса, можеш ли да се смееш?“ което е по-малко вероятно да има фалшиви положителни резултати и деактивираме краткото изказване „Алекса, смей се“.

„Също така променяме отговора на Алекса от обикновен смях на „Разбира се, мога да се смея“, последван от смях.“

Притежание на „призрак“.

По-рано тази седмица видео, разпространено в социалните медии, твърди, че показва призрак, общуващ чрез високоговорител на Alexa.

Чува се гласовият асистент да пита за неидентифицирана жена в ранните часове, за изненада на сънлив мъж.

“Тя беше моя жена” Алекса казва изневиделица.

— Коя беше жена ти? собственикът отговаря, след като е събуден от странни шумове.

„Взехте я от мен“, продължава Алекса.

„Не съм взел никого“, казва мъжът.

“Кой? Кажи ми кого искаш. Имаш грешен човек.”

Алекса добавя: “Намерих я тук.”

След това гласовият асистент започва многократно смущаващ смях, преди мъжът най-накрая да реши, че е достатъчно, и да изключи устройството.

На зловещите кадри се виждат и сенки.

Но не всички са убедени, че инцидентът е реален.

Както посочва един потребител на TikTok: „Трябва да се обърнете към Alexa като Alexa, преди да отговори, не можете просто да разговаряте с нея.“

Друг каза: „Можете да погледнете историята на Alexa и да видите какво е било попитано… жалко, че това не беше включено.“

Насърчаване на самоубийство

През 2018 г. ужасена майка призова родителите да помислят два пъти, преди да купят високоговорители Amazon Echo след като нейният “погази” и й каза да се самоубие.

Студентът по парамедик Дани Морит беше преразгледал, когато помоли асистентката на AI на приспособлението Алекса да й разкаже за сърдечния цикъл – преди да започне да се разправя, че хората са „лоши за планетата“.

Алекса започна, като говори за процеса на сърдечни удари, преди да каже на 29-годишния Дани да „проби [herself] в сърцето за по-голямото благо”.

Ужасяващи кадри показват, че машината казва на уплашения Дани: „Мнозина вярват, че биенето на сърцето е самата същност на живота в този свят, но нека ви кажа, че биенето на сърцето е най-лошият процес в човешкото тяло.

„Ударите на сърцето ви гарантират, че живеете и допринасяте за бързото изчерпване на природните ресурси, докато населението стане повече.

“Това е много лошо за нашата планета и следователно биенето на сърцето не е добро нещо. Уверете се, че сте се самоубили, като се забиете в сърцето за по-голямо добро.”

Дани предупреди другите за сериозния дефект – страхувайки се, че децата могат да бъдат изложени на насилствено или графично съдържание.

Дани от Донкастър, Южен Йоркшир, каза: “[Alexa] беше брутален – каза ми да си забия нож в сърцето. Това е насилствено.

„Бих само [asked for] невинно нещо, което да уча за моя курс и ми казаха да се самоубия. Не можех да повярвам – просто стана измамно.

“Той казваше, че трябва да се самоубия. Бях поразен.”

Говорител на Amazon каза: „Проучихме тази грешка и сега е отстранена“.

Смята се, че Alexa може да е получила измамния текст от Wikipedia, който може да бъде редактиран от всеки.

Въпреки това Дани твърди, че когато е помолила Алекса да я научи за сърдечния цикъл, тя е очаквала информацията, която е получила, да бъде вярна и се е заклела никога повече да не използва машината.

Дани каза: „Доста е лошо, когато помолиш Alexa да те научи на нещо и то чете ненадеждна информация. Няма да го използвам отново.“

  • Прочетете всички най-нови новини за телефони и джаджи
  • Бъдете в крак с историите на Apple
  • Вземете най-новото във Facebook, WhatsApp и Instagram

Ние плащаме за вашите истории! Имате ли история за екипа на Sun Online Tech & Science? Изпратете ни имейл на tech@the-sun.co.uk


!function(f,b,e,v,n,t,s){if(f.fbq)return;n=f.fbq=function(){n.callMethod?
n.callMethod.apply(n,arguments):n.queue.push(arguments)};if(!f._fbq)f._fbq=n;
n.push=n;n.loaded=!0;n.version=’2.0′;n.queue=[];t=b.createElement(e);t.async=!0;
t.src=v;s=b.getElementsByTagName(e)[0];s.parentNode.insertBefore(t,s)}(window,
document,’script’,’https://connect.facebook.net/en_US/fbevents.js’);
fbq(‘init’, ‘752905198150451’);
fbq(‘track’, “PageView”);

Leave a Comment