Umělá inteligence už dávno není jen téma pro programátory. Zasahuje do práva, politiky i vzdělávání. Máte nápady, jak řešit etické a společenské výzvy, které přináší?VÍCE INFORMACÍ O IDEATHONU →
Deset nobelistů a další stovky osobností nejen z technologického sektoru varují před nepřijatelnými riziky spojenými se současným vývojem umělé inteligence
Umělá inteligence má nesmírný potenciál přispět k pokroku člověka, avšak dosavadní trajektorie jejího vývoje je poznamenaná bezprecedentním nebezpečím. AI může již brzy překonat úroveň lidské inteligence a eskalovat rizika jako jsou biologické zbraně, šíření dezinformací, manipulace jednotlivci i dětmi, bezpečnostní rizika na úrovni národní i mezinárodní, masová nezaměstnanost a systematické porušování lidských práv. Některé z pokročilých AI systémů již dnes vykazují klamavé a škodlivé chování, a přesto je těmto systémům poskytováno stále více autonomie jednat a rozhodovat v tomto světě. Zatímco chybí vůle se těmto výzvám postavit čelem, mnoho expertů, včetně těch, kteří jsou v přední linii technologického vývoje, varuje, že bude jen více a více obtížné zavést lidskou kontrolu nad touto technologií v následujících letech. Vlády musí jednat s maximální rozhodností, dokud se prostor pro smysluplnou intervenci neuzavře. Mezinárodní shoda na jasných a ověřitelných mantinelech je nezbytná k ochraně před celosvětově nepřijatelnými riziky.
Future of Life Institute
Vyjadřujeme požadavek na zastavení vývoje superinteligence
“Vyjadřujeme požadavek na zastavení vývoje superinteligence do doby, dokud nebude existovat široký vědecký konsensus, že bude možné ji vyvíjet bezpečně a kontrolovaně, a dokud nezíská silnou podporu veřejnosti.”
Co je PauseAI?
PauseAI CZ je česká odnož celosvětového hnutí PauseAI, které se snaží varovat před riziky nezodpovědného vývoje umělé inteligence. Naším cílem je vytvoření globální dohody, která pozastaví vývoj obecné umělé inteligence (AGI), jež by svými schopnostmi překonala lidský intelekt. Tato pauza nám poskytne čas zajistit bezpečnost a připravit naše instituce na hluboké společenské změny.
Nelze zpochybnit kladné přínosy, jež AI lidstvu přináší v řadě oblastech — například v medicíně. Avšak podstatná část vědecké komunity varuje před závažnými riziky jako je masová nezaměstnanost, zneužití AI k bioterorismu, tvorbu deepfakes, manipulaci veřejného mínění či vytváření psychické závislosti. JAKÁ JSOU RIZIKA →
Riskujeme vyhynutí lidstva
48 %expertů odhadlo možnost vymření lidstva v důsledku ztráty kontroly nad pokročilou formou AI jako 5 % a více pravděpodobnou
Možná se to zdá být pro někoho science-fiction, ale ve dva roky starém dotazníkovém šetření „Thousands of AI Authors on the Future of AI", jehož součástí bylo 2 778 špičkových AI vědců, odhadlo 48% expertů pravděpodobnost extinkce lidstva v důsledku ztráty kontroly nad pokročilou formou AI jako 5% a více pravděpodobnou. U 38% dotázaných expertů stálo pak riziko vyhynutí lidstva jako 10% a více pravděpodobné. O 10% až 20% riziku extinkce lidstva zapříčiněnou umělou inteligencí mluví například i nejcitovanější vědec v oboru AI Yoshua Bengio či držitel Nobelovy ceny za fyziku Geoffrey Hinton. Oba jsou pro svůj přínos na vývoji neuronových sítí přezdívaní jako „kmotři AI". PROČ A JAK NÁS MŮŽE AI ZABÍT →
Můžete nás podpořit
Můžete nás podpořit Když se řekne AI, většina lidí si představí generovaný obrázek či možnost nechat si bezpracně napsat motivační dopis či slohovku do češtiny. O tématu AI Safety a reálných dopadech AI na společnost se, ale vede debata naprosto minimální. My se naopak tato témata v českém prostoru nebojíme otevírat. Pokud Vám naše mise přijde sympatická, nezdráhejte se nás finančně podpořit! Bankovní účet PauseAI CZ: 2903387428/2010
Bankovní účet
2203387427/2010
Pokud vyžadujete potvrzení o daru pro daňové účely, napište nám variabilní symbol vaší platby.