Doporučuji přečíst si článek na Lupě: Tvůrci umělé inteligence budou muset před soudem dokazovat, že neškodili. Píše se tam o novém návrhu směrnice o odpovědnosti za škodu způsobenou prostředky umělé inteligence.
Tato směrnice nově zavádí fikci, že škodlivý následek umělá inteligence způsobila. Půjde o takzvanou vyvratitelnou domněnku, to znamená, že tvůrce umělé inteligence se bude moci vyvinit, pokud sám prokáže, že na nehodě nemá žádný podíl. Přemýšlím, zda není taková směrnice poněkud demotivační k tomu vyvíjet v EU systémy, k kterým zákon přistupuje s principem obrácení důkazního břemene.
Další novinkou je možnost soudu navrhnout, aby nařídil zpřístupnění informací o vysoce rizikových systémech AI. Poškozený by tak mohl nahlédnout pod ruce vývojářům. Pokud se dokumentace bude moci takto snadno dostat do rukou nespokojených žalobců, myslím spolu s John Buyersem, že to významně ovlivní to, jak se budou psát dokumentace.
Aby bylo možné určit, jak moc které systémy a aplikace škodí, zavádí AIA jejich kategorizaci. Do zakázané skupiny „nepřijatelného rizika“ spadají ty aplikace, které manipulují s lidským chováním s cílem obejít svobodnou vůli uživatelů. Nevím jestli tomu rozumím dobře, ale pokud vytvořím aplikaci, která mě bude například motivovat k cvičení – obcházím tím svou svobodou vůli (která k cvičení nebyla dostatečná) a vytvářím nepřijatelné riziko nehledě na to, zda je aplikace prospěšná či škodlivá? Nebo nerozumím jak je to v souladu s neurologickými výzkumy, které koncept svobodné vůle z dobrých důvodů opustili (mozek se rozhodne dříve než naše já a vytváří tak falešnou iluzi svobodné vůle; máme pudy a instinkty…).
Dále jako aplikace ve vysoce rizikové kategorii principiálně vyloučené nejsou, před jejich nasazením je však nutné splnit celou řadu podmínek. Do této skupiny patří sektor vzdělávání, zaměstnanost, finance nebo vymáhání práva. Takže na mé edukativní aplikace bude EU nahlížet jako na vysoce rizikové. Experti z EU odmítají dotovat můj výzkum (například cca 1milion na pořádnou českou verzi DestilBERTa, která by reálně pomohla řadě českým firem). Raději dávají přednost z mého pohledu poněkud pochybným projektům (např. stamilionová dotace v programu Inovace na toustový chléb Penam pana Babiše).
Nyní mi EU chce pomoci vytvářet důvěryhodné a bezpečné systémy tím, že bych měl plnit celou řadu podmínek, abych prokázal, že jsou mé systémy přesné a spravedlivé, k automatickým procesům nutně stavět vždy lidský dohled (myslím, že lepší je systém monitoringu s notifikací) a podobně.
Rozumím, že je třeba lidi chránit. AI sebou skutečně nese určitá rizika (odporučovací systémy na TikToku a FB např.) Sám jsem si vytvořil tři etické principy AI kterými řídím svojí společnost (prospěšnost, bezpečnost a transparentnost). Byl bych rád, aby se v EU i ČR více hovořilo především o té prospěšnosti. Dále jsem příliš nepochopil, co spadá všechno spadá definice AI (např. jen SW nebo i HW). Proč by mělo být na AI nahlíženo jinak než na ostatní systémy?
Článek: https://www.lupa.cz/…/tvurci-umele-inteligence-budou…/
Směrnice: https://ec.europa.eu/…/files/1_1_197605_prop_dir_ai_en.pdf