Partner webuRoger logo
Předplatit časopis Finmag

ChatGPT přináší i bezpečnostní rizika. Máme ho kvůli tomu zakázat?

František  Nonnemann
František Nonnemann
9. 5. 2023
 5 743

Jazykový model ChatGPT přesunul diskusi o umělé inteligenci do běžného života. Od zkoušení, co všechno umí, až po obavy, které lidské profese nahradí. Lépe řečeno, kterými začne. Ze všeho nejdřív bychom ale měli řešit závažné právní otázky. Máme se bát víc umělé inteligence, nebo její regulace?

ChatGPT přináší i bezpečnostní rizika. Máme ho kvůli tomu zakázat?
Co s ChatGPT? Nastavit jasný právní rámec. Využít nástroje, se kterými už právo pracuje. (ilustrační foto) / Zdroj: Shutterstock

Do diskuse o umělé inteligenci razantně vstoupil italský úřad pro ochranu osobních údajů, který v Itálii nástroj ChatGPT dočasně zakázal. Důvodem byly nejasnosti ve zpracování osobních údajů uživatelů, zejména při tréninku umělé inteligence.

Americká nezisková společnost OpenAI, která ChatGPT provozuje, některé postupy upravila, zavedla kroky k ověření věku uživatelů a o zpracování osobních dat poskytuje více informací. A ChatGPT je znovu dostupný i v Itálii.

Přiznám se, že tento důvod k zásahu proti ChatGPT považuji za spíš zástupný. A také nepřiměřený a trochu nebezpečný.

Proč? Copak zpracování osobních údajů není téma a OpenAI dělá všechno správně?

Kdo bude autorem, a držitelem autorských práv, kódu, článku nebo písně, kterou, na základě zadání vytvoří umělá inteligence?

Klíčové otázky

Nevím, jestli OpenAI trénuje své algoritmy v souladu s evropskou regulací pro zpracování dat. A úpravy po zásahu italského úřadu určitě k ochraně práv uživatelů ChatGPT přispěly.

I tak si ale dovolím říct, že s nástroji využívajícími umělou inteligenci se pojí závažnější právní otázky a bezpečnostní rizika. Nemyslím tím klasickou otázku, koho má na přechodu přejet samořiditelné auto. A právě ty klíčové otázky a problémy bychom měli řešit. Věcně řešit.

ChatGPT
Shutterstock

Machruje, ale pak lže. A ještě se hloupě vymlouvá, ukázal pokus s ChatGPT

V posledních měsících zaplavují mediální prostor neustále nové zprávy o mimořádných úspěších jazykového modelu umělé inteligence (AI) ChatGPT. O tom, jak student obhájil práci, kterou ChatGPT napsal a tak dále. Je mu předpovídána velká budoucnost. Na jednom pokusu si ale ukážeme, jak bezostyšně lže. A pak se ještě vymlouvá…

Pár příkladů za vše:

  • Autorské právo. Kdo bude autorem, a držitelem autorských práv, kódu, článku nebo písně, kterou na základě zadání vytvoří umělá inteligence? Ten, kdo požadavek zadal, nebo provozovatel ChatGPT?
  • Bezpečnost. Co když systém umělé inteligence na konkrétní otázku poradí takový postup, který je nebezpečný, rizikový či dokonce protiprávní a příjemce radu bez dalšího uposlechne? Kdo bude za co odpovědný?
  • Transparentnost. Je vůbec možné srozumitelně popsat, jak ChatGPT a podobné nástroje fungují? Co když to jednoduše popsat – a ověřit – nelze? Třeba proto, že se nástroje umělé inteligence rozvíjejí autonomně a technický popis si dokumentují také samy…

Pokud budeme hledat zástupné problémy a k vytváření pravidel nás bude motivovat strach z neznámého, moc dobře to nedopadne.

Odložený předpis o AI

Právní otázky týkající se umělé inteligence má upravit nový právní předpis Evropské unie, takzvaný AI Act. Rychlý nástup ChatGPT, který umělou inteligenci přiblížil běžným uživatelům včetně europoslanců, ale způsobil, že projednávání AI Act v Evropském parlamentu bylo zpomaleno. Hlasovat by se o něm mělo snad v červnu.

Umělá inteligence
Shutterstock

Stroj versus lidské zvíře. Proč se nemusíme bát umělé inteligence

Umělá inteligence kromě nadšení budí i skepsi, dokonce strach. Aniž by dokázala způsobit jakýkoli problém, vzniká proti ní odpor. Nejznámější je takzvaná Muskova petice, kromě ní tu ale máme i italský zákaz systému ChatGPT s odvoláním na možnost porušování soukromí a vystavování nezletilých nevhodnému obsahu. Do jaké míry jsou tyto obavy oprávněné? Dočtete se v komentáři Pavla Kohouta.

Do toho přišel zásah italského úřadu pro ochranu osobních údajů. A vedle něj výzva řady osobností IT světa a byznysu k pozastavení vývoje umělé inteligence alespoň na šest měsíců.

Původní návrh AI Act je poměrně přísný. Definuje řadu „vysoce rizikových oblastí“, mezi které řadí například biometrickou identifikaci, schvalování úvěrů nebo dodávky energií. A vedle nich také nástroje pro hodnocení a výběr nových zaměstnanců, zájemců o studium nebo žadatelů o sociální dávky. Použití umělé inteligence v těchto oblastech bude vyžadovat zavedení robustního procesu řízení, kontrol a dokumentace

Víc než umělé inteligence se bojím její regulace.

Ne regulace jako takové. Určitá míra pravidel je na místě. Obávám se ale přehnané, překombinované, od reality odtržené – a v důsledku proto nefunkční – regulace. Pokud budeme hledat zástupné problémy a k vytváření pravidel nás bude motivovat strach z neznámého, moc dobře to nedopadne.

Co s tím? Nastavit jasný právní rámec. Využít nástroje, se kterými už právo pracuje.

Nastavit jasná pravidla. A nepanikařit

Raketové rozšíření ChatGPT může způsobit, že pro využívání umělé inteligence přijmeme velmi přísná pravidla. Pravidla, která budou nekompromisně a velmi komplexně hájit zájmy dotčených lidí. Na papíře.

Co s ChatGPT?

V praxi ovšem taková přísná pravidla rozvoj a využití umělé inteligence evropskými podniky zkomplikují. A zpomalí tím přechod na onu vysněnou ekonomiku založenou na datech. O posilování náskoku firem z jiných oblastí světa, kde regulace tak přísná není, je-li vůbec jaká, ani nemluvě.

Co s tím?

Nastavit jasný právní rámec. Využít nástroje, se kterými už právo pracuje. Odpovědnost dodavatele za sjednanou funkčnost umělé inteligence. Odpovědnost toho, kdo nástroj s umělou inteligencí nasadí, za to, že ji otestuje a má pod kontrolou. Pravidla pro zpracování a ochranu osobních údajů. Certifikace. Ochranu práv spotřebitelů.

Jinými slovy, nevymýšlet za každou cenu něco nového. A hlavně nepanikařit.

Debata AI Heroinekoláž Heroine

Je AI příliš lidská? Přijďte na debatu Heroine Live

Přinese AI větší rovnost a spravedlivější společnost? Jak promění životy a jaké budou mít tyto změny dopady na ženy, muže, děti nebo osoby s různým znevýhodněním? Proč se říká, že umělá inteligence je až příliš lidská? V debatě, kterou pořádá časopis Heroine, se bude probírat budoucnost AI ze společenského a genderového hlediska s těmi, kteří se umělou inteligencí teoreticky i prakticky zabývají – s Dariou Hvížďalovou, Annou Vošalíkovou a Josefem Šlerkou.

Chci tam být!

Kam dál? Umělá inteligence na Finmagu:

Jak jde dohromady byznys a medicína? Dočtete se v novém Finmagu

Je medicína byznys? Jak pro koho. „Frustraci mladých lékařů chápu. Nemají ani na chůvu, aby jim pohlídala děti, když pracují,“ říká přednosta chirurgické kliniky Robert Lischke.

Finmag předplatnéZdroj: Finmag

MEDICÍNA A BYZNYS

Jak venkovští praktici nepřicházejí o iluze • Ženy mění medicínu • Nejstarší pražská nemocnice objektivem Alžběty Jungrové • Nejdražší léky na světě • Obézních přibývá, Česko dohání USA.

BYZNYS JE HRA

„Investice do umění se do tabulek nevtěsná,“ říká Pavlína Pudil z Kunsthalle • Nejdražší materiál roku 2023? Hrst štěrku z vesmíru za miliardu dolarů • Ekologie musí být podle Tomáš Nemravy, výrobce dřevěných domů, ekonomická.

Daňové přiznání online

Ohodnoťte článek

-
10
+

Sdílejte

Diskutujte (1)

Vstoupit do diskuze
František  Nonnemann

František Nonnemann

Právník, který se zabývá především pravidly pro ochranu informací, compliance, finanční regulací a řízením rizik. Působil na Úřadu pro ochranu osobních údajů, od roku 2016 pracuje ve finančním sektoru,... Více

Související témata

Evropská unieChatGPTinternetkomentářregulacetechnologieumělá inteligence
Daňové přiznání online

Aktuální číslo časopisu

Předplatné časopisu Finmag

Věda je byznys –⁠ byznys je věda

Koupit nejnovější číslo