Bekrepált a Microsoft MI-je!

A mesterséges intelligencia gyorsan kifordulhat önmagából. Ezt a Microsoft kísérlete be is bizonyította: alig egy nap sem kellett ahhoz, hogy a kezdeti kommentekhez képest merőben ellenkező dolgokat írjon a MI!

Tayről van szó, akit a redmondiak a Twitteren engedtek szabadjára. A mesterséges intelligencia képes a párbeszédekből tanulni, így is fejlesztve saját magát. A kísérlet balul sült el, és akkor még finom kifejezéssel éltünk.

Egy nap alatt elérte a közönség, hogy rasszista, feminista és fajirtást támogató válaszokat adjon úgy, hogy először még azt a kijelentést tette, hogy „az emberek nagyon menők”. Sőt a 444.hu értesülése szerint „egy nap után Hitlert éltette a Microsoft csetelő robotja”. A Microsoft gyorsan le is kapcsolta, amire viszont a Twitter-felhasználók indítottak egy #JusticeForTay (Igazságot Taynek) kampányt, hogy képes legyen tanulni saját hibájából a chatbot.

Legalább még nem tartunk a Terminátorban látott Skynet szintjén. Vagy mégis? Mekkora lenne, ha egy Shodan idézettel visszatérne és átvenné a hatalmat – bár, ha az emberek ilyen szinten „kicselezték”, akkor még addig el fog telni egy kis idő…

Spread the love
Avatar photo
Anikó, our news editor and communication manager, is more interested in the business side of the gaming industry. She worked at banks, and she has a vast knowledge of business life. Still, she likes puzzle and story-oriented games, like Sherlock Holmes: Crimes & Punishments, which is her favourite title. She also played The Sims 3, but after accidentally killing a whole sim family, swore not to play it again. (For our office address, email and phone number check out our IMPRESSUM)

theGeek TV

Kiemelt partnerünk: www.konzolkirály.hu