Které činnosti bychom rozhodně neměli svěřovat umělé inteligenci?

Rychlý technologický pokrok v oblasti umělé inteligence (AI) přináší mnoho slibných možností a vylepšení v různých odvětvích lidského života. Avšak s tímto vývojem se také vynořují obavy a rizika spojená s rozšířením a používáním této technologie. Tento článek si klade za cíl prozkoumat klíčová rizika spojená s umělou inteligencí a diskutovat o jejich potenciálním dopadu na společnost, etiku, soukromí a další oblasti lidského života. Od rizika ztráty pracovních míst kvůli automatizaci až po možnost nespravedlivého nebo nesprávného rozhodování UI systémů, zkoumáme, jakými způsoby může pokrok v této oblasti přinášet nečekané výzvy a jak je možné se připravit a minimalizovat jejich negativní důsledky.

Umělá inteligence řídí jaderný arzenál

Druhým příkladem je sovětský falešný jaderný poplach ze září 1983, kdy jejich počítačový systém varování před raketami ohlásil čtyři odpaly jaderných raket z USA. Protože počet detekovaných raket byl velmi malý, sovětský důstojník Stanislav Petrov – zabránil pravděpodobně největší pohromě v historii lidstva neuposlechl procedury. Sdělil svým nadřízeným, že se jedná o falešný poplach. Za normálních okolností by jaderný protiútok zahrnoval desítky nebo dokonce stovky jaderných raket. Naštěstí byla jeho rada uposlechnuta, což zabránilo sovětské odvetě, která mohla být začátkem jaderné války mezi komunistickými zeměmi a západním světem. Později se zjistilo, že falešný poplach vznikl chybnou interpretací dat sovětským softwarem umělé inteligence.

Stanislav Petrov
Stanislav Petrov přebírá v únoru 2013 Drážďanskou cenu v Semperově opeře v německých Drážďanech.

Umělá inteligence nahradila psychiatra

ELIZA, první konverzační robot vyvinutý profesorem Josephem Weizenbaumem na konci 60. let. Tento program umělé inteligence simuloval sezení s psychiatrem. Weizenbaum tento program představil některým psychiatrům a psychoanalytikům, aby ukázal, že stroj ve skutečnosti nemůže napodobit člověka. Byl překvapen, když viděl, že mnozí z nich jsou nadšeni, že ELIZA pracuje, jako by byla skutečný psychiatr, a dokonce propagují její využití pro rozvoj psychiatrie a psychoanalýzy ve velkém měřítku a s nízkými náklady. Weizenbaum na to reagoval výzvou psychiatrům a psychoanalytikům: Jak si dokážete na chvíli představit, že byste něco tak intimního, jako je sezení s jedním z vás, delegovali na stroj?

Umělá inteligence nahradila soudní analýzu

Nakonec můžeme odkázat na případ Erica Loomise, recidivisty se záznamem v trestním rejstříku, kterého v roce 2017 odsoudil Nejvyšší soud státu Wisconsin k šesti letům vězení. Toto odsouzení bylo přinejmenším částečně na doporučení softwarového programu založeného na umělé inteligenci s názvem Compas, který je uváděn na trh a prodáván soudům. Tento program je jedním z vtělení nového trendu v oblasti umělé inteligence: cílem je pomoci soudcům činit „lepší“ rozhodnutí. Loomis později tvrdil, že bylo porušeno jeho právo na spravedlivý proces, protože on ani jeho právníci neměli možnost prozkoumat nebo zpochybnit algoritmus, který stál za doporučením.

Kdo je zodpovědný za rozhodování umělé inteligence?

transumanism

Kdo je zodpovědný, když AI systém udělá chybu nebo způsobí škodu? Jakým způsobem je možné zajistit, aby AI jednala v souladu s etickými normami a lidskými hodnotami?

A co závislost společnosti na umělé inteligenci? Příliš velká závislost by mohla snížit schopnost lidí řešit problémy a rozhodovat nezávisle, což by mohlo vést k nedostatku kritického myšlení a kreativity.

guest
0 Komentáře
Inline Feedbacks
View all comments