Všeobecné

Vedci vytvárajú prvú AI „psychopata“ na svete tým, že ju nechávajú čítať titulky Redditu


Vedci z MIT úspešne vytvorili „psychopata“ AI tým, že ho kŕmili obsahom Redditu. Traja odborníci na hlboké vzdelávanie sa spojili, aby ukázali, ako obsah, ktorý ukazujeme AI, skutočne ovplyvňuje ich študijné výsledky.

Aby inžinieri a výskumníci MIT Pinar Yanardag, Manuel Cebrian a Iyad Rahwan dokázali svoju pointu, mali svoju AI, ktorú nazvali Norman podľa hlavnej postavy v Psycho, prečítať obrazové titulky z fóra Reddit.

Potom Normanovi ukázali sériu atramentových blokov od slávnych Rorschachov test. Zatiaľ čo pri zobrazovaní štandardnej AI obrázky všeobecne reagovali odpoveďami ako „zblízka svadobná torta na stole“, Norman reaguje grafickými nápadmi vrátane „človek je zavraždený guľometom za bieleho dňa“.

Aby bolo jasné, vedci robotovi neukazovali skutočné obrázky dostupné na strašidelnej stránke Reddit, iba čítal ich titulky. Aj keď bol normanský projekt zdanlivo strašidelný a zbytočný, nemohol prísť v lepšom čase.

Na otázku, čo ich motivovalo k psychopatickej AI, tvorcovia Normana vysvetlili, že projekt sa zameriava na uvedenie povedomia o spôsobe, akým AI vyvíja zaujatosť prostredníctvom obsahu, ktorý skrýva. „Údaje, ktoré používate na výučbu algoritmu strojového učenia, môžu významne ovplyvniť jeho správanie,“ uviedli vedci.

"Takže keď hovoríme o algoritmoch AI, ktoré sú neobjektívne alebo nespravodlivé, vinníkom často nie je samotný algoritmus, ale neobjektívne údaje, ktoré sa k nemu dostávali." Ako sa technológia AI rýchlo rozvíja, pretrvávajú otázky, ako bude monitorovaná a regulovaná.

Norman nastoľuje veľké otázky etiky umelej inteligencie

Google dnes zverejnil svoje etické princípy týkajúce sa jeho práce s AI. Spoločnosť tvrdí, že pri vývoji zbraní nebude spolupracovať so žiadnymi vojenskými organizáciami.

Norman kladie subtílne otázky inžinierom AI aj širšej verejnosti o tom, ako monitorujeme obsah, a teda zaujatosť novej AI.

Napríklad AI používaná v autách s vlastným pohonom sa musí naučiť, ako rozpoznať chodcov od neživých predmetov. Je potrebné venovať pozornosť tomu, aby údaje poskytnuté AI neodkazovali na žiadny konkrétny pohľad na to, čo je ľudské, aby sa zaistilo, že nedôjde k neúmyselnému naučeniu zaujatosti.

Rovnaký tím z MIT už predtým útočil na temnú stránku AI. Ich prvým projektom bol „Nightmare Machine“ poháňaný umelou inteligenciou. Projekt sa zaoberal výzvou, aby AI nielen detekovala, ale aj vyvolala extrémne emócie, ako napríklad strach, u ľudí.

Potom nasledovali tento hrozný projekt s vývojom Shelleyho, prvého spolupracujúceho umelca hrôzy pre AI na svete. Shelley bola „vychovaná; čítanie strašidelných rozprávok na dobrú noc zo subRedditu NoSleep.

V spolupráci s ľudskými autormi potom mohla napísať viac ako 200 hororových príbehov. V roku 2017 sa tím na krátku chvíľu odvrátil od temnej stránky, aby vyvinul Deep Empathy, projekt, ktorý skúma, či AI môže zvýšiť empatiu k obetiam katastrof na diaľku vytvorením obrázkov, ktoré simulujú katastrofy bližšie k domovu.