Deset nobelistů a další stovky osobností nejen z technologického sektoru varují před nepřijatelnými riziky spojenými se současným vývojem umělé inteligence
Umělá inteligence má nesmírný potenciál přispět k pokroku člověka, avšak dosavadní trajektorie jejího vývoje je poznamenaná bezprecedentním nebezpečím. AI může již brzy překonat úroveň lidské inteligence a eskalovat rizika jako jsou biologické zbraně, šíření dezinformací, manipulace jednotlivci i dětmi, bezpečnostní rizika na úrovni národní i mezinárodní, masová nezaměstnanost a systematické porušování lidských práv. Některé z pokročilých AI systémů již dnes vykazují klamavé a škodlivé chování, a přesto je těmto systémům poskytováno stále více autonomie jednat a rozhodovat v tomto světě. Zatímco chybí vůle se těmto výzvám postavit čelem, mnoho expertů, včetně těch, kteří jsou v přední linii technologického vývoje, varuje, že bude jen více a více obtížné zavést lidskou kontrolu nad touto technologií v následujících letech. Vlády musí jednat s maximální rozhodností, dokud se prostor pro smysluplnou intervenci neuzavře. Mezinárodní shoda na jasných a ověřitelných mantinelech je nezbytná k ochraně před celosvětově nepřijatelnými riziky. Tyto mantinely musí být vybudovány již v kontextu stávajících globálních rámců a dobrovolných závazků korporací, jež zajistí, že poskytovatelé pokročilé AI budou nést odpovědnost za dodržování těchto dohod.
Future of Life Institute
Vyjadřujeme požadavek na zákaz vývoje superinteligence
“Vyjadřujeme požadavek na zákaz vývoje superinteligence, který nebude zrušen, dokud nebude široký vědecký konsensus, že bude možné ji vyvíjet bezpečně a kontrolovaně, a dokud nezíská silnou podporu veřejnosti.”
◀
▶
Proč pauza?
PauseAI CZ je česká odnož celosvětového hnutí PauseAI, které se snaží varovat před riziky, které podstupujeme s nezodpovědným vývojem umělé inteligence. Naším cílem je vytvoření globální dohody, která uvalí moratorium na další vývoj obecné umělé inteligence (Artificial General Inteligence), jež se ze své technické definice vyrovná ve všech ohledech kognitivním schopnostem člověka. Tato pauza by měla zajistit dostatečnou pozornost věnovanou bezpečnosti této technologie a také poskytnout adekvátní čas našim sociálním institucím se připravit na razantní sociální, kulturní, ekonomické proměny, jež pokročilá forma umělé inteligence může vyvolat.
Nelze zpochybnit kladné přínosy, jež AI lidstvu přináší v řadě oblastech - například v medicíně. Avšak podstatná část vědecké komunity varuje, před závažnými riziky jako je masová nezaměstnanost, zneužití AI k bioterorismu, tvorbu deepfakes, manipulaci veřejného míněním či vytváření psychické závislosti.JAKÁ JSOU RIZIKA
Riskujeme vyhynutí lidstva
Možná se to zdá být pro někoho science fiction, ale ve dva roky starém dotazníkovém šetření „Thousands of AI Authors on the Future of AI“, jehož součástí bylo 2 778 špičkových AI vědců, odhadlo 38% vědců pravděpodobnost extinkce lidstva v důsledku ztráty kontroly nad pokročilou formou AI jako 10% i více. O 10% až 20% riziku extinkce lidstva zapříčiněnou umělou inteligencí mluví například i nejcitovanější vědec v oboru AI Yoshua Bengio či držitel Nobelovy ceny za fyziku Geoffrey Hinton.PROČ A JAK NÁS MŮŽE AI ZABÍT
Můžete nás podpořit
Když se řekne AI, většina lidí si představí generovaný obrázek či možnost nechat si bezpracně napsat motivační dopis či slohovku do češtiny. O tématu AI Safety a reálných dopadech AI na společnost se ale vede debata naprosto minimální. My se naopak tato témata v Česku nebojíme otevírat. Pokud Vám naše mise přijde sympatická, nezdráhejte se nás finančně podpořit!