Poněkud upozaděn za těmito logistickými patáliemi mocných mužů zůstává projev nositelky Nobelovy ceny míru Marie Ressy, která v úvodní den zasedání přednesla text otevřené výzvy, pod níž se podepsalo deset nositelů Nobelovy ceny a zhruba na tři sta dalších osobností veřejného života a předních expertů nejen na umělou inteligenci. Najdete mezi nimi takzvané „kmotry AI“ Geoffreyho Hintona a Yoshua Bengio, nositele Nobelovy ceny za ekonomii Josepha Stiglitze či autora knihy Sapiens historika Yuvala Harariho. Text výzvy, který si nyní dovolím přeložit do češtiny, zní:
„Umělá inteligence má nesmírný potenciál přispět k pokroku člověka, avšak dosavadní trajektorie jejího vývoje je poznamenaná bezprecedentním nebezpečím. AI může již brzy překonat úroveň lidské inteligence a eskalovat rizika jaké jsou biologické zbraně, šíření dezinformací, manipulace jednotlivci i dětmi, bezpečnostní rizika na úrovni národním i mezinárodním, masová nezaměstnanost a systematické porušování lidských práv.
Některé z pokročilých AI systému již dnes vykazují klamavé a škodlivé chování, a přesto je těmto systému poskytováno stále více autonomie jednat a rozhodovat v tomto světě. Zatímco chybí vůle se těmto výzvám postavit čelem, mnoho expertů včetně těch, kteří jsou v přední linii technologického vývoje varují, že bude jen více a více obtížné zavést lidskou kontrolu nad touto technologií v následujících letech.
Vlády musí jednat s maximální rozhodností, dokud se okno pro smysluplnou intervenci nezavře. Mezinárodní shoda na jasných a ověřitelných červených liniích je nezbytná k ochraně před celosvětově nepřijatelnými riziky. Tyto červené linie, musí být vybudovány již v kontextu stávajících globálních rámců a dobrovolných závazků korporací, jež zajistí, že poskytovatelé pokročilé AI budou nést odpovědnost za dodržování těchto dohod.“
Skutečnost, že tato výzva prolétla okolo českých médií nepovšimnuta, jen dokazuje, jak opožděna je u nás diskuze týkající bezpečnosti AI.
Více se o signatářích petice dočtete na webu Call for red lines to prevent unacceptable AI risks