Hogyan hozzunk létre egy etikus robotot, a tudományt mindenkinek egyszerű szavakkal

Természetesen, a Tay beállításaiban nem állították be az abszolút erkölcsöt. Azonban sok más mesterséges intelligencia rendszer vesz részt olyan munkák végzésében, amelyek egyértelmű etikai következményekkel járnak.

Ahogy egyre kifinomultabb robotok jelennek meg, a döntéshozatali folyamat még nehezebbé válik. Ebben az esetben azonban felmerül a kérdés, hogy miként kell programozni a robotokat az erkölcsiség megértéséhez és hogy bízzunk bennük az erkölcsi dilemmák megoldásában.

Hogyan hozzunk létre egy etikai mechanizmust.
Általában egy etikus robot létrehozásakor két megközelítés létezik. Az első egy meghatározott erkölcsi törvény meghatározása (például a boldogság szorzása), írjon egy hasonló törvényhez tartozó kódot, és hozzon létre egy robotot, amely szigorúan követi a kódot. Azonban ennek a megközelítésnek a bonyolultsága a megfelelő etikai szabály kiválasztása. Minden erkölcsi törvényhez, még az is, ami már fent említett, és egyszerűnek tűnik, számtalan kivétel és ellenpélda van. Például, ha egy robot arra törekszik, hogy maximalizálja a boldogságot azáltal, hogy elveszi egy ember szerveit öt életét megmentve?

"A Morality kérdések a legtöbb esetben homályosak" - mondja Ronald Arkin, a Giorgia Technológiai Egyetem Mobil Robotikai Laboratóriumának professzora és igazgatója.
„Ahogy az emberek, még mindig fogadni, hogy a rendszer az erkölcsi értékeket, amelyeket fel kell használni: következetesen alkalmazni kell - gyakorlati elv” a cél szentesíti az eszközt „vagy a kanti etikai megközelítés alapja az a gondolat az emberi jogokat.”

És nem csak vitatkozni kell, amíg megtaláljuk a helyes választ. Patrick Lin, a Kaliforniai Műszaki Egyetem etikai és feltörekvő tudományi csapata igazgatója kijelenti, hogy az etikának nincs belső konzisztenciája, ami lehetetlenné teszi, hogy szűkítse a programokat. "Az egész rendszer összeomolhat az ütközés eredménye a paradoxonokkal vagy feloldhatatlan ellentmondásokkal" - mondja.

A második lehetőség egy öntanított robot létrehozása és megtanulni, hogyan reagáljon különböző helyzetekben, és ezáltal az erkölcsi elképzelések kialakulását eredményezze. Ez hasonlít ahhoz, hogy egy személy hogyan hasonlít az erkölcsi mintákra, de felmerül a kérdés: vajon az emberek igazán minősülnek-e az erkölcsök legjobb tanítóinak? Csak akkor, ha olyan emberek szeretik, akik Tay-val beszélnek, megtanítják a robotot, nem lesz különösebben érzékeny az erkölcsi kérdésekre.

Bizonyos mértékig Tei képes érzékelni, amit ő tanított, lenyűgöző, mondja Arkin. Azonban megjegyzi, hogy a botot "az emberek pártjáról való zaklatásnak" vetették alá. Hozzáteszi:

"Ezt teheted meg egy kicsit." Az önképző rendszerek sok tekintetben a legigazságosabbak. "Bolondot tehet valakinek, és ezek az emberek úgy döntöttek, hogy a mesterséges intelligenciát becsapják".

Elképzelések az életben.
Az erkölcsi robot létrehozása nem csupán absztrakt elmélet; a filozófusok és a számítástechnika területén dolgozó szakemberek éppen ezt csinálják.

Arkin, a Giorgia Technológiai Intézet munkatársa, hogy a gépek megfeleljenek a nemzetközi humanitárius jognak. Ilyen esetekben nagy számban vannak olyan törvények és utasítások, amelyeket az emberek fejlesztenek ki és koordinálnak a külföldi országok között. Annak ellenére, hogy egyes esetek kevésbé egyértelműek, mint mások, Arkin úgy véli, hogy projektje néhány évtized alatt eléri a célját.

Munkája nagyrészt a felülről lefelé történő programozáson és kisebb mértékben az öntanuláson alapul - végül is nem akarsz küldeni valakit a küzdelembe és abbahagyni ott, hogy kitalálhassa, hogyan reagáljon.

Susan Anderson azt mondja, hogy munkájukat John Rawls és a filozófusok befolyásolták. D. Ross. Míg Rawls munkája a „reflexivitás egyensúlyi„állapot, hogy az erkölcsi elvek lehet kivonni az etikai döntéseket hozni bizonyos helyzetekben, Ross úgy érvel, hogy az emberek több elsődleges erkölcsi alapelveknek. Mindannyiunkat kötelességünk követni, bár egyik sem abszolút, és nem túlsúlyban van a többieknél. Ezért abban a helyzetben, amikor közöttük ellentmondások merülnek fel, kiegyensúlyozottnak és összehasonlításnak kell alávetni.

Anderson tanulmányozza az öntanuló robotokat, hogy kidolgozzák az idősek orvosi ellátásának elvét. Az egyik esetben egy olyan intellektuális rendszert hoztak létre, amely egy etikus cselekvési folyamatot alakít ki olyan helyzetben, amikor a beteg elutasítja az előírt kezelést. Ha az egészségügyi dolgozó megpróbálja meggyőzni a beteget, hogy elfogadja a kezelést vagy sem? Ez számos összetett etikai felelősségre utal, beleértve a beteg autonómiájának tiszteletben tartását, a lehetséges károkat és a lehetséges előnyöket.

Anderson megállapította, hogy amint a robot megtudja, hogy erkölcsi választ ad a 4 konkrét forgatókönyvre, megszerzi az általánosíthatóságot, és meghozza a megfelelő döntést a fennmaradó 14 esetben. Ebből származik egy etikai elv:

„Meg kell próbálni meggyőzni a beteg vagy, hogy ő valószínűleg szenvedni, ha nem ért egyet, hogy kövesse a javasolt kúra, vagy veszít jelentős előny. Nem csak egy kis haszon, de jelentős, ha nem veszi fel a vényköteles.”

Annak ellenére, hogy a kódrobotokban ezen munka korai szakaszában egyszerű erkölcsi kötelezettségeket írtak elő - például a kár megelőzésének fontosságát -, mivel Andersons olyan munkában volt, amely nem tartalmaz erkölcsi szempontokat. Ehelyett az intellektuális rendszer már erkölcsi alapelveket tanult erkölcsi szakértőkkel való kommunikáció során.

Bízunk-e az erkölcsi ügyekben?
Elképzelhetőnek tűnik az olyan erõfeszítésre képes robotok létrehozása, amelyek képesek az erkölcsi érzékelésre - de folytatni kell ezeket továbbfejleszteni? Anderson megjegyzi, hogy bizonyos értelemben a robotok tökéletesebb alanyai lehetnek az erkölcsi döntések meghozatalában, mint az emberek.
„Az emberek - a termék a természetes szelekció, így az általunk kifejlesztett egy önző gondolat, vagy legalábbis az ötleteket, hogy megfeleljen az érdekeit a csoport, és senki nem mást -. Az eredmény az, hogy képesek vagyunk túlélni, mint a faj,” - mondta.

Ráadásul az emberek hajlamosak hibákat követelni, és az igazságszolgáltatással kapcsolatos döntéseik nem a végső igazság.

Azonban nem valószínű, hogy a robotok képesek lesznek megbirkózni a komplex erkölcsi döntések elfogadásával a közeljövőben. És természetesen, miközben még mindig vannak bizonyos kérdések az erkölcsi értékek területén, ésszerűtlennek tűnne, ha a hatóságot ezen a területen delegálnánk a robotoknak. Amint Arkin rámutat, "az emberek erkölcsi döntéseinek elfogadásának folyamata nem teljesen érthető, sőt, abszolút megegyezést sem értünk el vele kapcsolatban."

Anderson és a többi professzor, akikkel beszéltem, egyetértenek abban, hogy a mechanizmusokat nem szabad beavatkozni az erkölcsi ellentmondásokat jelentő területekre. És Lin hozzáteszi, hogy kétségei vannak azzal kapcsolatban, hogy erkölcsi-e az erkölcsi döntések meghozására irányuló kemény munka.
"Hogyan tud egy személy személyesen nőni, vagy karaktert alakítani anélkül, hogy erkölcsi izomát felhasználná?" - mondja. „Képzeld el, ha kellett a külső váz, de amivel képes lenne mozgatni, futtatni, nem él, és nem az összes többi megnyilvánulása a fizikai aktivitás. Tenne életünkben valóban jobb, ha megbízható fizikai aktivitás technika helyett saját izmaik fejlesztésére? Az erkölcsök javítására szolgáló mechanizmus.
Bár még nem szeretnénk robotokat delegálni a legösszetettebb erkölcsi dilemmák megoldására, az erkölcsökre való törekvés elősegíti a haladás előrehaladását saját erkölcsi megértésünkben.

Wallach megjegyzi, hogy a könyvében: „Erkölcsi Machines: robotok Tanuld meg megkülönböztetni a jót a rossztól,” ő vetette fel: ugyanaz az elv, amely szerint a számítógépek támogatni filozófiai megértése az elme, alkalmazható robotok és az etika tanulmányozására. Ennek a megközelítésnek az egyik példája az Anderson család által végzett munka, amely elvét alapozza meg az orvosi ellátás szellemi rendszerén alapulva. Anderson rámutat arra, hogy a történelem erkölcsi fejlődését jelzi fokozatos konszenzuskeresés - és hogy a fejlődés erkölcsi alapelvek robotok, hogy az hozzájáruljon a morális érvelés.

Ahogy Lin azt mondja, fennáll annak a lehetősége, hogy egyszerűen lehetetlen csökkenteni az etikus döntések számának az emberek által gyakorolt ​​számszerű értékeit - például nem világos, hogyan kell kódolni az együttérzést vagy a jótékonyságot. Azonban megjegyzi, hogy a robotok erkölcsi elvei az emberi etika problémájaként tekinthetők. "Reflexiók arról, hogy a robotok hogyan vezethetnek magukhoz, képzeljük el magunkat feltételezve, hogy hogyan vezessük magunkat az embereket" - mondja. "Ez lehetőséget ad arra, hogy jobban megismerjük magunkat.

Kapcsolódó cikkek