Amennyiben ai tudja magyarázni, hogyan és mit csinál

Amennyiben ai tudja magyarázni, hogyan és mit csinál

Mivel a bonyolultsága az algoritmusok, amelyek kezelik egyre növekvő adatmennyiség, és figyelembe egyre változatosabb megoldásokat, akkor jön a kérdés, hogy a terv - hogyan csinálják?







Mivel a mesterséges intelligencia (AI) egyre összetettebbé válik, ez is egyre kevésbé átlátható. A gépi tanulás algoritmusok képes kezelni nagy mennyiségű adatot generál előrejelzések és döntések - anélkül, hogy a képesség, hogy elmagyarázzák az embereknek, hogy valójában mire. Az a kérdés, hogy mi kell igényel igazolást ezen intézkedések, figyelembe véve a lehetséges következmények - például amikor a foglalkoztatás vagy a vádemelés - és milyen ellenőrzési intézkedések elősegítik sdelatAI átláthatóbb, érthetőbb és elszámoltatható. Matthew Hutson (Máté Hutson), tudományos tiszt. Beszéltem Sandra Wachter (SandraWachter), szakterülete a problémák az etika foglalkozik az adatokat a University of Oxford, Egyesült Királyság, és az Institute of Alan Turing.

- Milyen területeken kell az átláthatóságot?

- Az algoritmus lehet, hogy egy nagyon unalmas munka az Ön számára, hogy hatékony, nem lehet megunni, és gyakran jobb döntéseket hozni, mint az emberek. De átláthatóságra van szükség, ahol a technológiák, amelyek jelentős hatást gyakorolnak ránk. Algoritmusok eldönteni, hogy az emberek jó jelöltek a jelzálog, hitel vagy biztosítási, a kamatláb, stb Azt, hogy döntéseket bérbeadása és néha a sorsa a pályázók. . Már 1970 Medical School of St. George London kifejlesztett szoftver a kezdeti szűrés a kérelmezők - és később bebizonyosodott. algoritmusok, amelyek ténylegesen hátrányos mentén faji és nemi vonalak.

A bírák és rendőrök algoritmusok ítélkezést parole és megelőző rendőrség munkáját. Tavaly, ProPublica jelentett. hogy a népszerű program neve COMPAS túlbecsülte a kockázatokat a bűnismétlés fekete vádlottak. Robotika és autonóm rendszerek lehet használni a műtét, ellátás, a szállítás és a büntető igazságszolgáltatás. Meg kell adni a jogot, hogy értékelje a pontosság és logikája ezeket a döntéseket.







- Mi már kiigazítást ebben a tekintetben?

- szabályozók szerte a világon, hogy megvitassák és megoldani ezeket a problémákat, de néha kell, hogy megfeleljen a versengő érdekek. Egyrészt, az állami szektor biztosítania kell a biztonságos működés az algoritmusok, AI, és a robotika, és biztosítja, hogy ezek a rendszerek nem diszkriminálják, vagy más módon kárt okoznak az embereknek. Másrészről, a rendelet előírja az átláthatóságot, gátolhatja az innovációt, a kutatást és a negatív hatása az üzleti érdekek, mint a kereskedelmi titkok.

Rendelet önmagában problémákat okozhat, ha a legelején a követelmények nem egyértelműen meghatározott, vagy azt igényli, hogy technikailag lehetetlen megvalósítani. Egyesek a közösség AI tudja, hogy nem lehet mindig megmagyarázni munkáját AI, mert még rendszerek tervezői nem értik, hogyan működnek. Azok, akik AlphaGo [programot legyőzni a legjobb játékos az első a világon. - Tudomány orosz nyelven], nem tudta, hogy az algoritmus hogyan találták azok mozog.

- Vannak-e különbségek az intézkedések az amerikai és az európai szabályozók?

- vessünk egy szelíd megközelítés az önszabályozás. A jelenlegi politika jobban összpontosít az oktatás a kutatók és önkéntes magatartási akció a magánszektorban. Ez lehet az eredménye, a meggyőződés, hogy ha túl sokat igazítani, akkor negatív hatással a kutatás, az innováció és a gazdasági növekedés.

- Vajon kellőképpen figyelembe azt a tényt, hogy a döntéshozók is, hogy nagy mértékben „fekete doboz”?

- Igen, az emberek előítéletek, amelyek miatt diszkriminatív döntéseket, és gyakran nem tudják, hogy mikor és miért az emberek előítéletesek. A gépi tanulás, megvan a lehetőség, hogy a kevésbé elfogult döntéseket. De algoritmusok képzett „torzított” adatok, fenntartani és szaporodni az előítéleteket, és még újak kidolgozására.

- És ha egy példát?

Más esetekben ez inkább kevésbé nyilvánvaló első pillantásra az előítéleteket. Van egy klasszikus (feltételezett) példa. Emberek piros autó is kénytelenek fizetni a magasabb díjak - és ez nem diszkrimináció ellen ebben a csoportban, de lehet rossz hatása előre. Sportkocsik gyakran vörös, és az emberek, akik vásárolnak sportautók, gyakran annak tulajdonítható, hogy a macsó, amelyek hajlamosak a veszélyes vezetési stílus és ezért valószínűbb, hogy bekerüljön a baleseteket. Ennek megfelelően, ha szükség van rájuk, hogy többet fizetni a biztosítási, ez igaz. De ha a piros autót gyakrabban sérült inkább egy balesetben, majd értékesítik, az emberek kevesebb jövedelmet nagyobb valószínűséggel is lovagolni őket - és azt is, hogy fizetni a magasabb díjakat. Ezért néhány adatot csak, amit használni, nem elég, hogy meghatározza a logikája, amelynek megkülönböztető hatással.

De biztos vagyok benne, tudjuk fejleszteni hatékonyabb eszközök azonosítása előítéletek és módon rögzíteni őket.