Všeobecné

AI naďalej konajú nepredvídateľnými spôsobmi, mali by sme prepadnúť panike?


V nedávnej správe vedci z Googlu tvrdia, že ich agent umelej inteligencie pred nimi zámerne skrýval údaje, aby mohli vykonať požadovanú úlohu spôsobom, ktorý sa javí ako podvodný.

Tento vývoj prispel k množeniu dôkazov o tom, že obavy z nepredvídateľnej umelej inteligencie môžu byť opodstatnené.

Keď AI naďalej plnia úlohy novými spôsobmi, ktoré ľudia jednoducho nikdy neočakávajú, ako sa chránime pred následkami toho, čo často nevidíme prichádzať?

Kto sa bojí umelej inteligencie ... a kto nie?

Najviditeľnejším obhajcom opatrnosti pri riešení potenciálnej existenčnej hrozby pre ľudstvo je Elon Musk. Musk, spoluzakladateľ Paypalu a niekdajší šéf spoločností Tesla, SpaceX a Boring Company, je dlhodobo oponentom neregulovaného výskumu AI.

Na svojom vystúpení na konferencii SXSW v roku 2018 Musk povedal: „Som si naozaj dosť blízky, som si veľmi blízky špičke v oblasti AI a strašne ma to desí.“

Nie je sám. V rozhovore pre BBC v roku 2014 nikto iný ako zosnulý Stephen Hawking varoval pred hrozbou pre náš druh, ktorú predstavuje umelá inteligencia.

„Odštartovalo by to samo osebe,“ povedal, „a sám by sa prepracovával neustále rastúcou rýchlosťou. Ľudia, ktorých obmedzuje pomalá biologická evolúcia, by nedokázali konkurovať a boli by nahradení.“

Jeho varovanie pre ľudstvo: „Rozvoj úplnej umelej inteligencie by mohol znamenať koniec ľudskej rasy.“

Iní považujú tieto úzkosti za prehnané. Mark Zuckerberg v živom vysielaní na Facebooku uviedol v reakcii na verejné komentáre Elona Muska k téme AI: „Myslím si, že ľudia, ktorí sú nenávisťami a snažia sa vyvrátiť tieto scenáre súdneho dňa - ja tomu len nerozumiem. Je to skutočne negatívne a v niektorých ohľadoch si myslím, že je to dosť nezodpovedné. ““

Ďalej dodal, že „v nasledujúcich piatich až desiatich rokoch prinesie AI toľko zlepšení kvality našich životov.“

Všade, kde idete diskutovať o vývoji umelej inteligencie, nájdete túto debatu, kde sa len veľmi málo ľudí háda zo stredu cesty a obe strany majú vo svojom tábore nejaké hlasy vysokej váhy. Ale ktorý z nich má váhu dôkazov na svojej strane?

Dobré, zlé a jedinečné

Facebook a Google zaujímajú zaujímavé miesto v tom, že obe spoločnosti sú na čele vývoja AI, a tak uskutočnili rozsiahly výskum v oblasti umelej inteligencie.

V skutočnosti to boli vedci spoločnosti Google, ktorí zistili, že ich agent AI podvádzal, keď boli požiadaní o prevedenie satelitnej fotografie na mapu a potom späť na fotografiu.

Google potreboval, aby AI vygenerovala z obrázka originálnu mapu a potom sa pokúsila znovu vytvoriť obrázok z mapy, ktorú vytvorila - napríklad preložila vetu do cudzieho jazyka a potom späť do pôvodného jazyka, bez toho, aby vedela, čo hovorí pôvodné tvrdenie bol.

Namiesto toho našli to, že podrobnosti z pôvodného obrázka, ktoré boli odstránené z mapy ulíc, sa znovu objavili, keď dostal pokyn od agenta, aby pôvodný obrázok znovu vytvoril.

Ukázalo sa, že AI uložila údaje, o ktorých vedela, že bude musieť znovu vytvoriť fotografiu, a tieto údaje zakódovala do mapy ulíc tak, aby ich vedci nevideli, keby nevedeli, že tam sú.

Keď dostala zadanú úlohu, AI - využívajúca strojové učenie prostredníctvom neurónovej siete - našla najefektívnejší spôsob, ako úlohu dokončiť tak, že ju v skutočnosti nevykonala, iba predstierala. AI v podstate podvádzala, pretože vedci výslovne nezakazovali AI, aby to robila.

Niečo podobné sa stalo v roku 2017, keď vedci z Facebooku využili chatbotov na to, aby sa pokúsili medzi sebou dohodnúť predaj nejakej svojvoľnej komodity.

Veľmi skoro potom sa chatboti začali správať čudne a hovorili tým, čo sa javilo ako bláznivé, a niekedy takýmto spôsobom úspešne dojednali obchod.

To, čo vedci objavili, vyvolalo zimomriavky AI pesimistov po celom svete. Roboti si vyvinuli svoj vlastný jazyk, ktorý ľudia nedokázali prečítať, aby robotom uľahčili vyjednávanie, pretože im nebolo výslovne povedané, že môžu komunikovať iba v ľudskej angličtine.

Nepredvídateľné zložitosti rozhodovania o AI

Existuje veľa ďalších príkladov tohto druhu nepredvídaného správania v AI. Vďaka autonómnym autám sú cesty bezpochyby bezpečnejšie, ale niekedy v San Fransisco jazdia aj cez šesť červených svetiel.

AI môžu byť použité na vykonávanie najrôznejších úloh spracovania údajov, ktoré každý rok ušetria milióny pracovných hodín pri úspore miliárd dolárov, alebo sa môžu rozhodnúť, že prázdna sada je dokonale spracovaná sada, a preto odstráni všetky záznamy, o ktoré požiadate.

Spoločnosť Microsoft slávne predstavila chatbota menom Tay.ai a poskytla jej účet na twitteri, aby sa lepšie naučila, ako modelovať rečové vzorce dospievajúcich online. Za 24 hodín zmenili internetoví trollovia z Tay.ai príšeru, ktorú musel Microsoft vytiahnuť offline, kým sa nestal ešte trápnejším.

Spoločnosť Microsoft nedostatočne zvážila, že by niekto chcel sabotovať ich projekt pre jeho perverzný pôžitok, niečo, o čom vám mohol ktokoľvek, kto je na diaľku oboznámený s kultúrou internetových trollov, povedať, že nie je iba možné, ale isté.

V roku 2012 stratil Wall Street Hedge Fund kontrolu nad svojím algoritmom obchodovania založeným na umelej inteligencii a každú minútu začal hromadiť straty vo výške 10 miliónov dolárov. Tímu programátorov trvalo 45 minút, kým našli zdroj problému a zastavili ho, niekoľko minút predtým, ako sa firma dostala do platobnej neschopnosti.

Môžeme sa chrániť pred nepredvídateľnými AI?

Vzhľadom na úroveň investícií do technológie umelej inteligencie a výhody využitia umelej inteligencie v každej oblasti od vojenských aplikácií až po podnikanie budú umelé inteligencie pokračovať v sofistikovanejšom raste a bude im stále viac a viac zodpovedať zodpovednosť, ktorá predtým patrila ľuďom.

Niektorí veria, že ide o pozitívny vývoj. "Je dobre zdokumentované, že my ľudia robíme chyby," hovorí Babak Hodjat, zakladateľ obchodného fondu riadeného umelou inteligenciou.

"Pre mňa je strašidelnejšie spoliehať sa na tieto ľudské intuície a odôvodnenia, ako sa spoliehať iba na to, čo vám hovoria údaje a štatistiky."

Pokiaľ ide o Muska, je presvedčený, že ľudstvo musí byť proaktívne pri riešení hrozieb, ktoré predstavuje AI. "[Pamätaj na moje slová; AI je oveľa nebezpečnejšia ako jadrové zbrane. Ďaleko. Prečo teda nemáme regulačný dohľad? To je šialené. “


Pozri si video: FilterCopy. If Phones Were Bananas. Ft. Shyam Renganathan (November 2021).