O příchodu převratných technologií
31. 3. 2023
Nástup nových a převratných technologií není samo o sobě nic děsi...1. 4. 2023
Systém GPT-4, vyvinutý společností OpenAI, kterou Musk spoluzaložil a kterou nyní podporuje Microsoft, vyvinul schopnost vést konverzaci podobnou lidské, skládat písně a shrnovat dlouhé dokumenty. Takové systémy umělé inteligence s "inteligencí, která konkuruje člověku", představují pro lidstvo hluboké riziko, varuje dopis.
"Laboratoře umělé inteligence a nezávislí odborníci by měli tuto pauzu využít ke společnému vypracování a zavedení souboru společných bezpečnostních protokolů pro návrh a vývoj pokročilé umělé inteligence, které by byly přísně kontrolovány a dozorovány nezávislými externími odborníky," uvádí se v dopise.
Institut Future of Life, thinktank, který toto úsilí koordinoval, citoval 12 výzkumů odborníků, mezi nimiž byli akademici z univerzit i současní a bývalí zaměstnanci společností OpenAI, Google a její dceřiné společnosti DeepMind. Čtyři odborníci citovaní v dopise však vyjádřili znepokojení nad tím, že jejich výzkum byl použit k takovým tvrzením.
Když byl dopis původně spuštěn, chyběly v něm ověřovací protokoly pro podpis a nasbíral podpisy lidí, kteří jej ve skutečnosti nepodepsali, včetně Si Ťin-pchinga a hlavního vědce společnosti Meta pro umělou inteligenci Yanna LeCuna, který na Twitteru upřesnil, že jej nepodpořil.
Kritici obvinili Future of Life Institute (FLI), který je financován především Muskovou nadací, z toho, že upřednostňuje imaginární apokalyptické scénáře před bezprostřednějšími obavami z umělé inteligence - například z rasistických nebo sexistických předsudků naprogramovaných do strojů.
Mezi citovanými výzkumy byl i článek "O nebezpečí stochastických papoušků", jehož známou spoluautorkou je Margaret Mitchellová, která dříve dohlížela na etický výzkum AI ve společnosti Google. Mitchellová, která je nyní hlavní vědeckou pracovnicí pro etiku ve firmě Hugging Face zabývající se umělou inteligencí, dopis kritizovala a agentuře Reuters řekla, že není jasné, co se počítá za "výkonnější než GPT4".
"Tím, že dopis považuje spoustu pochybných myšlenek za samozřejmost, prosazuje soubor priorit a narativ o AI, který je výhodný pro zastánce FLI," uvedla.
Její spoluautoři Timnit Gebru a Emily M. Benderová dopis na Twitteru kritizovali, přičemž druhá jmenovaná označila některá jeho tvrzení za "neověřená". Shiri Dori-Hacohenová, odborná asistentka na Connecticutské univerzitě, se rovněž ohradila proti tomu, že je v dopise zmíněna její práce. V loňském roce byla spoluautorkou výzkumné práce, v níž tvrdila, že široké využívání umělé inteligence již představuje vážná rizika.
Její výzkum tvrdil, že současné využívání systémů umělé inteligence může ovlivnit rozhodování v souvislosti se změnou klimatu, jadernou válkou a dalšími existenčními hrozbami.
Řekla to agentuře Reuters: "Umělá inteligence nemusí dosáhnout inteligence na úrovni člověka, aby tato rizika prohloubila."
"Existují neexistenční rizika, která jsou opravdu, ale opravdu důležitá, ale nevěnuje se jim stejná pozornost na úrovni Hollywoodu."
Prezident FLI Max Tegmark, který byl požádán, aby se ke kritice vyjádřil, uvedl, že krátkodobá i dlouhodobá rizika AI je třeba brát vážně. "Pokud někoho citujeme, znamená to jen, že tvrdíme, že tuto větu schvaluje. Neznamená to, že schvalují ten dopis nebo že schvalujeme vše, co si myslí," řekl agentuře Reuters.
Diskuse