Deset nobelistů a další stovky osobností nejen z technologického sektoru varují před nepřijatelnými riziky spojenými se současným vývojem umělé inteligence
Umělá inteligence má nesmírný potenciál přispět k pokroku člověka, avšak dosavadní trajektorie jejího vývoje je poznamenaná bezprecedentním nebezpečím. AI může již brzy překonat úroveň lidské inteligence a eskalovat rizika jako jsou biologické zbraně, šíření dezinformací, manipulace jednotlivci i dětmi, bezpečnostní rizika na úrovni národní i mezinárodní, masová nezaměstnanost a systematické porušování lidských práv. Některé z pokročilých AI systémů již dnes vykazují klamavé a škodlivé chování, a přesto je těmto systémům poskytováno stále více autonomie jednat a rozhodovat v tomto světě. Zatímco chybí vůle se těmto výzvám postavit čelem, mnoho expertů, včetně těch, kteří jsou v přední linii technologického vývoje, varuje, že bude jen více a více obtížné zavést lidskou kontrolu nad touto technologií v následujících letech. Vlády musí jednat s maximální rozhodností, dokud se prostor pro smysluplnou intervenci neuzavře. Mezinárodní shoda na jasných a ověřitelných mantinelech je nezbytná k ochraně před celosvětově nepřijatelnými riziky.
Future of Life Institute
Vyjadřujeme požadavek na zastavení vývoje superinteligence
“Vyjadřujeme požadavek na zastavení vývoje superinteligence do doby, dokud nebude existovat široký vědecký konsensus, že bude možné ji vyvíjet bezpečně a kontrolovaně, a dokud nezíská silnou podporu veřejnosti.”
Co je PauseAI?
PauseAI CZ je česká odnož celosvětového hnutí PauseAI, které se snaží varovat před riziky nezodpovědného vývoje umělé inteligence. Naším cílem je vytvoření globální dohody, která pozastaví vývoj obecné umělé inteligence (AGI), jež by svými schopnostmi překonala lidský intelekt. Tato pauza nám poskytne čas zajistit bezpečnost a připravit naše instituce na hluboké společenské změny.
Nelze zpochybnit kladné přínosy, jež AI lidstvu přináší v řadě oblastech — například v medicíně. Avšak podstatná část vědecké komunity varuje před závažnými riziky jako je masová nezaměstnanost, zneužití AI k bioterorismu, tvorbu deepfakes, manipulaci veřejného mínění či vytváření psychické závislosti. JAKÁ JSOU RIZIKA →
Riskujeme vyhynutí lidstva
38 %špičkových AI vědců odhaduje pravděpodobnost extinkce lidstva v důsledku ztráty kontroly nad AI jako 10 % nebo více
Podpořte první českou organizaci věnující se rizikům umělé inteligence. Naše práce je zcela nezávislá a financovaná z darů jednotlivců, kteří sdílejí naši vizi bezpečné budoucnosti s AI. Každý příspěvek nám pomáhá posilovat schopnost ovlivňovat veřejnou debatu a lobbovat za odpovědnou politiku.
Bankovní účet
2203387427/2010
Pokud vyžadujete potvrzení o daru pro daňové účely, napište nám variabilní symbol vaší platby.
Ideathon: Dopady AI na naší společnost
Umělá inteligence už dávno není jen téma pro programátory. Zasahuje do práva, politiky i vzdělávání. Máte nápady, jak řešit etické a společenské výzvy, které přináší?VÍCE INFORMACÍ O IDEATHONU →