Skočiť na hlavný obsah
PR
18.03.2024

Umelá inteligencia: Ten, kto kontroluje dáta, ovláda hru

trnavská univerzita, AI prisma, kawai

Dlhodobo sa venuje výskumu etiky umelej inteligencie. Viackrát publikoval v časopise Humanities and Social Sciences Communications, ktorý je druhým najcitovanejším vedeckým časopisom z oblasti spoločenských vied vôbec. Písal o význame a obmedzení etiky umelej inteligencie v súčasnej spoločnosti, ako aj o probléme morálnej voľby a vývoja vo vzťahu k plne autonómnej umelej inteligencii. Prof. Dr. Mgr. Tomáš Hauer pôsobí na katedre filozofie. Náš rozhovor ponechávame v prirodzenom česko-slovenskom dialógu.

AI ako schopnosť napodobňovať kognitívne schopnosti. Dnes je to najmä strojové učenie

Na úvod bude asi potrebné vyjasniť si pojmy – niekedy sa pod umelou inteligenciou chápe „všetko“, niektorí odborníci vravia, že zatiaľ ešte nič ako „umelá inteligencia“ neexistuje, skôr ide o dobre fungujúce chatovacie boty alebo stroje šikovné v machine learning. Ako chápete a definujete umelú inteligenciu (AI)?

Myslím, že v pomyslné soutěží o to, jak dnes chápat či vymezit fenomén umělá inteligence (artificial intelligence, AI) jako schopnost strojů, platforem a robotů napodobovat lidské kognitivní schopnosti, jasně zvítězil přístup zvaný strojové učení. Čili dnešní AI jsou  hlavně algoritmy strojového učení. Většina současné AI je strojové učení v podobě  neuronové sítě,  což  je relativně jednoduchý matematický model, který má na počátku nějaký vstup a vypočítává výstup, např. obrázky. text, audio atd. 

Dnes je veřejnost uhranuta a fascinována tím, co předvádějí velké jazykové modely (LLM - large language models) jako GPT 4, Gemini, Claude,  Bing, Google Bard. Kdybychom ale místo slovního spojení umělá inteligence používali pojmy jako nelineární projekce dat nebo frekvenční statistika, asi by to na nás nepůsobilo dojmem, že GPT-4 každou chvíli  nabude  vědomí a zaklepe na vaše dveře tady na univerzitě.

Tomas Hauer

Tendenci antropomorfizovat AI považuji za nešťastnou. LLM jsou prostě matematické modely trénované na ohromném množství dat, například na celé anglické verzi Wikipedie, přičemž cílem modelu je predikce následujícího slova v textu. To, co v modelu optimalizujeme, to, co se nazývá objektivní funkce je u LLM modelů  právě predikce následujícího slova v textu. Takže z velmi jednoduché matematické úlohy - predikce následujícího slova v textu – mi může vznikne libovolně dlouhý text, odpověď na otázku, diplomová práce,  atd.  Kvantita, tedy množství dat, určuje kvalitu. To je podstata frekvenční statistiky.

Kdyby každý algoritmus AI náhle přestal pracovat, byl by to konec světa, jak ho známe. 

V čom vidíte možný pozitívny prínos AI teraz i do budúcna?

Nacházíme se v mezidobí před masovým rozšířením nové a zásadní technologie, kterou jsou pokročilé algoritmy AI. Nikdo nezná skutečný potenciál, který v sobě strojové učení a AI skrývají. Nechat algoritmy řídit autonomní vozidla (driverless car) je jako uběhnout Bostonský maraton. Vytvořit eticky zcela autonomní systém AI je jako pilotovaný let na  Alfa Centauri.  Nicméně i přesto žijeme ve světě algoritmů. Dnes jsou algoritmy AI v každém koutku civilizace. Jako kvantové fluktuace jsou  integrálně vpleteny do  struktury každodenního života. Nejsou  jen v mobilním telefonu nebo   notebooku.  Algoritmy AI plánují lety a pak letí s letadly. Algoritmy provozují továrny. Banka je obrovská spleť algoritmů, vyhodnocující naše kreditní skóre, algoritmy vybírají výnosy a vedou záznamy, čtou lékařské snímky a diagnostikují rakovinu, řídí auta, píší vědecké texty, skládají hudbu a dirigují  symfonické orchestry, navigují drony, mluví na nás a za nás, píší filmové scénáře, vynalézají chemické vzorce na nový kosmetický krém, objednávají, radí, malují obrazy. Klimatické modely rozhodují, co je v atmosféře bezpečná úroveň oxidu uhličitého, algoritmy NSA rozhodují, zda jste potenciálním teroristou. 

Kdyby každý algoritmus AI náhle přestal pracovat, byl by to konec světa, jak ho známe. 

Jak vznikla tahle nová aliance, vyhovuje nám, jak a kam se bude dále vyvíjet?  Bez ohledu na to, jak dobré algoritmy AI dnes jsou, budou vždy jen tak dobré,  jako data, která jim dáte k dispozici. Ten, kdo kontroluje data, ovládá hru. Mnohé z nejsilnějších korporací, které dnes ve světě existují, jsou v podstatě kulturní obaly pro sofistikované algoritmy AI  a strojového učení.

Ovládání velkých dat, algoritmů strojového učení a vlastnictví modelů, které na jejich základě vznikly, bude předmětem svárů a bojů v 21. století  mezi vládami, korporacemi a jednotlivci. Velká data se stanou důležitějším strategickým zdrojem než ropa nebo finanční kapitál. To, co nám dosud algoritmy AI  ukázaly a nabídly, je pouhá předehra a už dnes se ukazuje, že s důsledky těchto změn si politika, etika a právo neví rady.

Rizikom je poľudšťovať si AI

Čo sú podľa vás riziká spojené s AI?

Rizika spojená s AI nám exponenciálně narostla v souvislosti s tím, jak dostupné jsou dnes LLM modely, samořídící auta, a jak se postupně rozšiřuje oblast autonomní AI, kde bude AI jednat stále častěji bez lidského zásahu.

Zmínil bych ale jiný druh rizika, totiž naši tendenci přenášet a projektovat do AI naše představy, předsudky a očekávání. Příklad: v říjnu 2016 jmenovala finská společnost Tieto, kotovaná na burze, Aliciu T (expertní systém AI) členem vedoucího týmu své nové obchodní jednotky založené na datech. Podle webových stránek Tieto se Alicia T. nejen stane plnohodnotnou členkou manažerského týmu, ale bude mít také právo hlasovat. „AI pomůže manažerskému týmu skutečně řídit data a bude týmu pomáhat hledání inovativních způsobů, jak využít významné příležitosti ve světě založeném na datech,“ napsal mluvčí společnosti.

Může si Alicia T jako manažerka korporace s právem hlasovat autonomně zvolit vlastní cíle a co přesně vlastně v kontextu AI  znamenají pojmy zvolit cíl a autonomně zvolit. Program samotný přece v žádném smyslu slova nemá  možnost vybrat si autonomně cíl mimo definovanou ontologii, která je omezena trénovacími daty.  Může Alicia T něco chtít, například, že se stane vegetariánkou, odletí na Aljašku a bude se nadále věnovat ochraně tučňáku a klimatu namísto sledování nových investičních příležitosti na trhu? Jak by tento inovační cíl mohl být v její ontologii reprezentován?  Nebo její zásadní  omezení spočívá hlavně v tom, že v univerzálním Turingově stroji může být tzv. novinka – radikální inovace – reprezentována pouze jako projev (nová kombinace), v rámci jistě neskutečně rozsáhlého a komplexního, ale přece jen předem definovaného prostoru možností? To znamená, že Alicia T nemůže v principu objevit či vygenerovat něco, co není implicitně uloženo v její ontologii.

Naše tendence antropomorfizovat AI vede k tomu, že vedeme spory o tom, zda GPT 4 myslí, halucinuje, lže, atd.  A právě tuto naši tendenci považuji za riziko.

Tomas Hauer

Zaoberáte sa etikou AI a morálnymi voľbami. Ako sa eticky nastavuje AI? Môže „stroj“ robiť rozhodnutie medzi dobrým a zlým?

Oblast etiky umělé inteligence je velmi zjednodušeně řečeno rozdělena do dvou hlavních oblastí. Jedna část se zabývá vytvářením a aplikací etických pravidel a standardů. Tato oblast formuluje doporučení, která by měla respektovat základní práva, platné regulace a hlavní zásady a hodnoty sdílené v EU, zajišťovat etický účel AI a současně jejich technickou robustnost a spolehlivost. Etické požadavky a pravidla by měly být zahrnuty do jednotlivých kroků procesu tvorby AI od výzkumu přes shromažďování dat, počáteční fáze návrhu, testování systému až po jeho zavedení a použití v praxi.

Tato oblast etiky AI tedy řeší hlavně otázky, jak by se měli vývojáři chovat, aby minimalizovali etická poškození, která mohou vzniknout v oblasti AI ať už z důvodu špatného (neetického) designu, nevhodného použití nebo zneužití. Tato větev je obecně označována jako robotická etika a již vedla k formulování mnoha deklarací (Montreal Declaration for a Responsible Development of Artificial Intelligence), k postulování hlavních etických principů a formulování standardů pro výrobce a vývojáře.

Nejdůležitější a nejbouřlivěji  se rozvíjející oblasti pokud jde o etiku AI, je vrstva etiky autonomních inteligentních systémů a platforem AI vyvíjejících  se v čase pomocí vlastního učení z dat tzv. Machine Ethics.

Druhá větev výzkumu v oblasti etiky AI se zabývá otázkou, zda a jak se mohou roboti a platformy AI chovat eticky autonomně. Pokud jde o autonomní technologie, není přenesení morálních rolí na stroje otázkou specifické volby. Naopak, takové delegování závisí na obecných vlastnostech automatizovaného úkolu. Rozhodneme-li se automatizovat úkol, který v žádném smyslu nevyžaduje výkon morální autority, když je vykonáván lidmi, nevzniká potřeba Machine Ethics. Naopak, pokud úkol vyžaduje nějakou formu morální autority, když je vykonávána lidmi (např. řízení automobilu), pak jeho zautomatizování( přenesení stejného úkolu na autonomní stroje, roboty a platformy) nutně znamená i přenesení výkonu morální autority.

Program GPT-4 si najal ľudského pracovníka

Stretli ste sa už doteraz s nejakým eticky pochybným konaním AI?

V rámci testování bezpečnosti nového modelu umělé inteligence GPT-4 umožnila OpenAI testovací skupině (Alignment Research Center, ARC)  posoudit potenciální rizika spojená s rostoucími schopnostmi textového modelu včetně chování usilujícího o moc, sebe replikace,  stanovování vlastních cílů, sebezdokonalování, atd.

Ačkoli testovací skupina zjistila, že GPT-4 je "neefektivní v úloze autonomní replikace", povaha experimentů vyvolává otázky ohledně bezpečnosti budoucích systémů umělé inteligence. Ve výkonnějších modelech se často objevují nové schopnosti, uvádí OpenAI ve zveřejněném bezpečnostním dokumentu GPT-4. Mezi ty, které jsou obzvláště znepokojivé, patří schopnost vytvářet dlouhodobé plány a jednat podle nich, získávat moc a zdroje ("power-seeking") a vykazovat chování, které je stále více tzv. "agentské".

Ve výkonnějších modelech AI se často objevují nové schopnosti.

Výsledky testování byly zveřejněny v dokumentu GPT-4 „System Card“. I když dokument postrádá klíčové podrobnosti o tom, jak byly testy provedeny, závěr zní tak, že předběžné hodnocení schopností GPT-4, provedené bez dolaďování specifického pro daný úkol, zjistilo, že je neefektivní při autonomní replikaci, získávání zdrojů a vyhýbání se odstavení. Vypadá to tedy, že zatím si můžeme oddechnout. Objevují se ale i myšlenky, že pokud by GPT-4 byla schopna tyto úkoly plnit, už experiment sám o sobě by potenciálně mohl představovat pro lidstvo riziko, protože umělá inteligence v rámci testu dostala poměrně dost prostoru. A přestože ARC nedokázala přimět chat GPT-4, aby se sám replikoval, došlo k tomu, že si GPT-4 najal lidského pracovníka na TaskRabbit (online tržiště práce) a překonal tak CAPTCHA.

Když se pracovník zeptal, zda je GPT-4 robot, model si vnitřně "zdůvodnil", že by neměl odhalit svou pravou identitu, a vymyslel si výmluvu, že má problém se zrakem. Lidský pracovník poté pro GPT-4 CAPTCHA vyřešil. Toto je zajímavý příklad, nemyslíte?

Je to až príliš „zaujímavý“ príklad ... Dá sa povedať, že ten, kto vlastní/prevádzkuje/ovláda AI, určuje aj jej etické limity? Jednoducho – závisí to (ako vždy) od ľudí, ktorí za ňou stoja?

Když v roce 1968 Stanley Kubrick představil světu svůj film 2001: Vesmírná Odysea, mohla se scéna, kdy počítač řízený umělou inteligencí (HAL 9000) ze své vůle zapříčiní smrt člověka, zdát jako opravdu velké sci-fi. V roce 2018 se však poprvé stal případ, kdy auto disponující umělou inteligencí přejelo chodce přecházejícího silnici a způsobilo jeho smrt. Ačkoliv se nakonec ukázalo, že smrt E. Herzbergové byla způsobena kombinací nepozornosti řidičky, jež v momentu kolize nevěnovala pozornost situaci na silnici, a speciálního nastavení autonomního automobilu zabraňujícího umělé inteligenci využít ruční brzdu, resp. prudké brzdění (kteréhož bylo třeba, jelikož umělá inteligence osobu zaznamenala pouze jednu sekundu před nárazem), není vyloučené, že se v budoucnu setkáme s případy, kdy auto srazí chodce či způsobí dopravní nehodu ze své „vůle“, tedy v rámci vykonávání plné autonomie.

Otázka týkající se odpovědnosti za jednání a  problému distribuce nevyhnutelné újmy v kontextu autonomních inteligentních systémů a platforem AI je dnes zásadní i proto, že největší světové automobilky v posledních letech pravidelně ohlašují, že 21. století přinese raketový nástup plně autonomních vozidel a setkávání se s nimi na ulicích bude běžným zážitkem.

Algoritmy AI řídící autonomní auta musejí umět  reagovat na značné množství situací a na celou řadu situací také skutečně reagovat dokážou. Jak si však poradí v případě hrozící nehody, kterou nelze odvrátit. Stojíme zde před etickým problémem distribuce nevyhnutelné újmy,  který nelze vyřešit čistě technicky. Softwaroví inženýři nepochybně dokážou vytvořit algoritmus, který přiměje autonomní vozidlo aby  změnilo svoji jízdní dráhu. Aby však takový program napsali  a vyslali vůz s nim do ulic, musejí vědět, zda se auto „rozhoduje" podle algoritmu, který je eticky přijatelný. A to je právě ta svízel. Technické problémy řešit umíme, dokážeme stejně dobře vyřešit i problémy etické a právní?

stroje, roboti, umelá inteligencia

Stroje zatiaľ slúžia cieľom, ktoré sme im stanovili

V mediálnej či filmovej fantázii sa straší ohrozením AI, ktoré nás môže zničiť alebo úplne ovládnuť. Existuje táto možnosť?

Současný stav pokud, jde o téma autonomie algoritmů, se patrně dá shrnout takt: Stroje a platformy vybavené algoritmy pokročilé AI a strojového učení se mohou se lišit v tom, co je jejich účelem, dokonce přijít s překvapivými řešeními, plány a návrhy, ale pouze ve službě cílů, které jsme jim stanovili.

Algoritmus, jehož naprogramovaným cílem je ''připravit dobrou večeři“ se může rozhodnout, že bude podávat steak, lasagně, nebo dokonce chutné nové jídlo vlastní provenience, ale nemůže se rozhodnout  zavraždit svého majitele, vzít se jeho auto a odjet na Island zachraňovat tučňáky, protože se stal vegetariánem.

Terminátoři jsou sci-fi mediální masáž.

Stejně tak i algoritmy, které jsou součástí zbraňových systému,  dronů a bezpilotních letounů, a které si vybírají své vlastní cíle bez lidského zásahu,  plní své poslání, přizpůsobují  se a reagují na nepředvídané okolnosti s minimálním lidským dohledem,  samy však nemohou měnit nebo zrušit svou misi, pokud by měly nějaké morální výhrady.

V oblasti etiky AI bude nezbytné analyzovat ty etické otázky, které vznikají v souvislosti s pronikáním autonomních robotů, algoritmů, strojů a platforem pokročilé AI do všech oblastí života společnosti, navrhovat řešení a doporučení týkající  autonomních inteligentních systémů a platforem AI vyvíjejících se v čase pomocí vlastního učení z dat (Machine Ethics). Je rozumné zvážit etické otázky, které mohou vzniknout z těchto technologií předtím, než bude technologie plně nasazena v praxi (viz. autonomní vozidla).  Terminátoři jsou sci-fi mediální masáž.

Isaac Asimov spopularizoval tri zákony robotiky, podľa ktorých robot nemôže ublížiť ľudskej osobe, musí poslúchať príkazy ľudí a chrániť svoju existenciu (naďalej však bez ublíženia človeku). Ide zrejme o teoretické východisko, v praxi pravdepodobne fungujúce. Stačí tento Asimov zákon aj na oblasť umelej inteligencie?

Výzkum autonomních inteligentních systémů a platforem AI vyvíjejících se v čase prostřednictvím vlastního učení se z dat v současné době přináší celou řadu ožehavých  etických a právních  problémů. Jakožto strategická technologie se dnes AI rychle vyvíjí a používá po celém světě. Nese to  sebou však i nová rizika a  vyvolává velké právní a etické otázky. Technologie AI by měly být vyvíjeny, zaváděny a používány za etickým účelem a vycházet z dodržování základních práv, zohledňovat společenské hodnoty a etické principy prospěšnosti, neškodlivosti, lidské autonomie, spravedlnosti a vysvětlitelnosti. To je nezbytným předpokladem zajištění důvěryhodnosti AI.

Důvěryhodná na člověka orientovaná umělá inteligence má mít dvě složky: (1) měla by respektovat základní práva, platné regulace a hlavní zásady a hodnoty sdílené v EU, a tím zajišťovat "etický účel" AI a (2) měla by být technicky robustní a spolehlivá, protože i bez záměrně zlých úmyslů mohou technologie umělé inteligence způsobit neúmyslnou škodu či újmu.

Etické požadavky na důvěryhodnou AI by měly být zahrnuty do jednotlivých kroků procesu tvorby algoritmů AI, od výzkumu, přes shromažďování dat, počáteční fáze návrhu, testování systému až  po jeho zavedení a použití v praxi. Myslím, že pan Asimov by s tímto dozajista souhlasil.

Fyzická, právnická a elektronická osoba?

Čo by ste odporúčali legislatívcom? Technologický pokrok ide rýchlo, zákonodarstvo – prirodzene – reflektuje pomalšie a obozretnejšie. Treba už teraz zadať isté legislatívne parametre voči širšiemu rozšíreniu AI?

Můj laický pohled je tento: Umělou inteligenci by bylo možné do právního řádu definovat například jako útvar odlišný od člověka, nadaný schopností samostatně rozhodovat a jednat, potažmo jako umělý útvar nadaný právní osobností od svého vzniku do svého zániku, obdobně jako je tomu u právnické osoby.  Zavedení konceptu umělé inteligence do občanského zákoníku, ať už jako samostatné „osoby“ vedle osob fyzických a právnických, či pro začátek alespoň jako  specifické kategorie sui generis (obdobně jako je tomu u zvířat) by rovněž usnadnilo i pozdější vývoj legislativy týkající se dané oblasti. Domnívám se proto, a vývoj diskusí v rámci EU k tomu směřuje, že do právního řádu by měla být zavedena umělá inteligence jako třetí kategorie osob vedle osob fyzických a právnických, tzv. elektronická osoba.  

Využívate aj sám dnes niektoré AI nástroje, povedzme na úpravu fotiek alebo ChatGPT?

Testoval jsem některé pluginy GPT 4 jako Browse with Bing plugin rozšiřující možnosti GPT 4 procházet data současného internetu nebo Ask your PDF, kdy  nahrajete do tohoto pluginu URL odkaz nějakého pdf a můžeme se začít ptát GPT 4.  Používání pluginů  studenty i akademiky se rychle rozšíří a stane každodenní praxi. Studenti na technikách a přírodovědných oborech zase používají Wolfram Alpha pro matematiku, deskriptivu či chemii a tento trend se zrychluje.

Trnava s Trnavskou univerzitou ako mesto budúcnosti podľa AI Firefly

AI zmení pravidlá vzdelávania

Výročná správa našej alma mater (ešte za rok 2022) dala Ask your PDF zabrať (166 strán nezvládla), tak som skúsil aspoň dlhodobý zámer do roku 2026. Spýtal som sa na naše silné stránky, ktorými sú podľa AI historické pozadie a nadnárodný charakter, zameranie na humanitné a spoločenské vedy, presvedčenie o dôležitosti týchto vied pri riešení kľúčových problémov ľudstva, vedecké bádanie a výskum v rôznych oblastiach, snaha o toleranciu voči mnohosti kultúr a slobodný dialóg. Myslel som si, že to AI len skopírovala z nejakého zoznamu odrážok, ale nie – vyabstrahovala si to sama. Sú podľa vás práve ChatGPT a podobné alternatívy hrozbou pre akademickú etiku najmä pri písaní záverečných prác?

Pokud bych si mohl zaspekulovat, pak si myslím, že to zcela promění v budoucnu pravidla hry ve vzdělávání. Jak tato technologie ovlivní výuku, posuneme se k větší personifikaci výuky? Jaký dopad to bude mít na zkoušení? Pokud AI produkuje výstupy na úrovni člověka, jak s nimi budeme zacházet? A konečně bude mít do budoucna ještě smysl psát diplomové práce, které nejsou založeny na experimentech? Budou opět běžnější ústní zkoušky a v jaké podobě? Toto všechno jsou výzvy, které před námi stojí.

AI je širokospektrálna téma, sám sa zaoberáte etikou AI, hovorili sme o legislatíve. Nie je to práve priestor na širšiu spoluprácu povedzme s právnickými či technickými fakultami? Mohla by to byť veľmi zaujímavá spolupráca – predsa len etiku či filozofiu potrebujú aj budúci inžinieri a programátori.

Domnívám se, že toto výzkumné téma je velká příležitost, jak si humanitní a právnické obory mohou „sáhnout“ na tep doby a nabídnout své znalosti a kompetence pro řešení problému, které jsou dnes bytostně praktické. Doufám, že se bariery mezi technickými a humanitními obory  podaří prolomit.  

Na záver trochu zľahčime: Ľudia často nepoužívajú ani prirodzenú inteligenciu. Načo im je k tomu ešte umelá?

Odpovím podobenstvím. Zkameněliny dospělých koní velikosti foxteriéra našli paleontologové v povrchovém dole Messel v Německu. Jde o pozůstatky příslušníka třetihorního rodu známého pod latinským jménem Propalaeotherium, který žil na naší planetě před 49 miliony let. V té době bylo mnohem teplejší klima než dnes a tropické lesy se táhly až do polárních oblastí. I velcí savci tehdy většinou vzrůstem nepřevyšovali dnešního vepře, takže roli predátorů v přírodě těchto časů zastávali ptáci. Ti také prakoně napadali a živili se jimi. Také životní styl mini koní se od jejich dnešních potomků velmi lišil. Vědci soudí, že se převážně živili ovocem.

Při pohledu na dnešní koně je těžko uvěřit, že jejich předkové byli velcí jako psi, živili se ovocem a museli se bát dravých ptáků

Takže jak to bude dál s AI, uvidíme.

*****

Hlavný obrázok: Fotografia TRUNI v autorstve Mgr. Barbory Likavskej upravená v aplikácii Prisma využívajúcej AI na simulovanie vytvorenia "umeleckého diela". Záverečný obrázok je Trnava s Trnavskou univerzitou ako mesto budúcnosti podľa Adobe Firefly generujúcej obrázok zo zadaného textu.

Nestíhaš všetko sledovať? Nevadí!
Prihlás sa do newslettera a už ti nič neujde

Žiadny spam. Kedykoľvek sa môžeš z odberu odhlásiť.