Deset nobelistů a další stovky osobností nejen z technologického sektoru varují před nepřijatelnými riziky spojenými se současným vývojem umělé inteligence
Umělá inteligence má nesmírný potenciál přispět k pokroku člověka, avšak dosavadní trajektorie jejího vývoje je poznamenaná bezprecedentním nebezpečím. AI může již brzy překonat úroveň lidské inteligence a eskalovat rizika jako jsou biologické zbraně, šíření dezinformací, manipulace jednotlivci i dětmi, bezpečnostní rizika na úrovni národní i mezinárodní, masová nezaměstnanost a systematické porušování lidských práv. Některé z pokročilých AI systémů již dnes vykazují klamavé a škodlivé chování, a přesto je těmto systémům poskytováno stále více autonomie jednat a rozhodovat v tomto světě. Zatímco chybí vůle se těmto výzvám postavit čelem, mnoho expertů, včetně těch, kteří jsou v přední linii technologického vývoje, varuje, že bude jen více a více obtížné zavést lidskou kontrolu nad touto technologií v následujících letech. Vlády musí jednat s maximální rozhodností, dokud se prostor pro smysluplnou intervenci neuzavře. Mezinárodní shoda na jasných a ověřitelných mantinelech je nezbytná k ochraně před celosvětově nepřijatelnými riziky. Tyto mantinely musí být vybudovány již v kontextu stávajících globálních rámců a dobrovolných závazků korporací, jež zajistí, že poskytovatelé pokročilé AI budou nést odpovědnost za dodržování těchto dohod.
Future of Life Institute
Vyjadřujeme požadavek na zastavení vývoje superinteligence
“Vyjadřujeme požadavek na zastavení vývoje superinteligence do doby, dokud nebude existovat široký vědecký konsensus, že bude možné ji vyvíjet bezpečně a kontrolovaně, a dokud nezíská silnou podporu veřejnosti.”
Co je PauseAI?
PauseAI CZ je česká odnož celosvětového hnutí PauseAI, které se snaží varovat před riziky, které podstupujeme s nezodpovědným vývojem umělé inteligence. Naším cílem je vytvoření globální dohody, která pozastaví vývoj obecné umělé inteligence (AGI), která by svými schopnostmi překonala lidský intelekt. Tato pauza nám poskytne čas zajistit bezpečnost a připravit naše instituce na hluboké společenské změny a zajistit dostatečnou pozornost pro bezpečnost AI a adaptaci našich sociálních, kulturních, ekonomických institucí na razantní proměny, jež pokročilá forma umělé inteligence může vyvolat.
Nelze zpochybnit kladné přínosy, jež AI lidstvu přináší v řadě oblastech - například v medicíně. Avšak podstatná část vědecké komunity varuje, před závažnými riziky jako je masová nezaměstnanost, zneužití AI k bioterorismu, tvorbu deepfakes, manipulaci veřejného míněním či vytváření psychické závislosti.JAKÁ JSOU RIZIKA
Riskujeme vyhynutí lidstva
Možná se to zdá být pro někoho science fiction, ale ve dva roky starém dotazníkovém šetření „Thousands of AI Authors on the Future of AI“, jehož součástí bylo 2 778 špičkových AI vědců, odhadlo 38% vědců pravděpodobnost extinkce lidstva v důsledku ztráty kontroly nad pokročilou formou AI jako 10% i více. O 10% až 20% riziku extinkce lidstva zapříčiněnou umělou inteligencí mluví například i nejcitovanější vědec v oboru AI Yoshua Bengio či držitel Nobelovy ceny za fyziku Geoffrey Hinton.PROČ A JAK NÁS MŮŽE AI ZABÍT
Můžete nás podpořit
Podpořte první českou organizaci, která se věnuje rizikům umělé inteligence. Naše práce je zcela nezávislá a zatím financovaná z darů od jednotlivců, kteří sdílejí naši vizi bezpečné budoucnosti s AI. Vaše podpora nám umožní pokračovat v naší misi, organizovat akce, vytvářet vzdělávací materiály a lobovat za odpovědnou politiku. Každý příspěvek, bez ohledu na jeho velikost, nám pomáhá posilovat naši schopnost ovlivňovat veřejnou debatu a přispívat k bezpečnějšímu vývoji umělé inteligence.
Bankovní účet pauseai - 2203387427/2010 Poznámka: Pokud vyžadujete potvrzení o daru pro daňové účely, napište nám prosím variabilní symbol vaší platby.