A mesterséges intelligenciát már erkölcsi kérdésekben is döntéshelyzetek elé állítják. Egy új módszer azt vizsgálja, hogy az emberek hogyan döntenek vezetés közben, és ez alapján tanítják az AI-t.
Az Észak-Karolinai Állami Egyetem kutatói megerősítettek egy módszert, amellyel tanulmányozni lehet, hogy az emberek hogyan hoznak erkölcsi döntéseket vezetés közben. Az így nyert adatokat önvezető járművek mesterséges intelligenciájának képzésére használják. A kísérleteket filozófusok segítségével tesztelték.
Veljko Dubljević professzor, a Frontiers in Psychology folyóiratban megjelent tanulmány társszerzője azt állítja, a balesetek gyakran alacsony téttel bíró döntésekből, például abból fakadnak, hogy valaki túllépi a sebességhatárt, vagy nem áll meg teljesen a stoptáblánál. A csapata azt akarta megérteni, hogy vezetés közben hogyan hoznak döntéseket az emberek, és mi számít erkölcsös döntésnek a volán mögött. A tudós szerint ehhez kvantitatív adatok kellenek.
„Szükségünk volt egy olyan módszerre, amellyel számszerűsíthető adatokat gyűjthetünk, hiszen ilyen típusú adatok nélkül nem tudjuk megtanítani az önvezető járművek mesterséges intelligenciáját az erkölcsös döntések meghozatalára – magyarázta Dubljević. Hozzátette: az adatgyűjtés technikáját validálniuk is kellett, és „az erkölcspszichológia területén a legaprólékosabb kritikusok a filozófusok”, így őket kérték fel a módszer tesztelésére.
A technika az ún. „Agent Deed Consequence” (ADC) modellre épül. Ez azt feltételezi, hogy az emberek három tényezőt vesznek figyelembe az erkölcsi ítéletek meghozatala során: az ágenst – vagyis a cselekvő szándékát és jellemét, a cselekedetet, valamint magát a következményt.
A kutatók különböző közlekedési helyzeteket mutattak a kísérlet humán résztvevőinek, majd kérdéseket tettek fel nekik a döntések erkölcsi elfogadhatóságáról és az egyes szituációk részleteiről. A vizsgálatot 274 filozófiai doktori fokozattal rendelkező személy vállalta.
„A különböző filozófusok eltérő iskolákhoz tartoznak, tehát eltérően gondolkodnak arról, mi számít erkölcsös döntésnek – mondja Dubljević. A haszonelvűek például teljesen máshogy közelítik meg az erkölcsi problémákat, mint a deontologikusok, akik a szabályok betartását helyezik előtérbe.”
Elméletileg ezek az eltérő nézőpontok különböző eredményekre kellett volna, hogy vezessenek, mégis, az eredmények mindenhol egységesek voltak.
„Haszonelvűek, deontologikusok, erényetikusok – bármelyik irányzat hívei voltak is, ugyanazokra a következtetésekre jutottak, amikor a vezetési döntések erkölcsi megítéléséről volt szó – számolt be a professzor. Ez azt jelenti, hogy általánosítani tudjuk a megállapításokat, vagyis az új technikának óriási potenciálja van a mesterséges intelligencia képzésében, ami komoly előrelépés.”
Dubljević felvázolta: a munkájuk következő lépése a módszer nagyobb mintán, sőt, különböző nyelveken történő tesztelése, hiszen csak így lehetnek biztosak benne, hogy a megközelítésük mennyire általánosítható nyugati kultúrákon belül és azokon túl is.
Címlapkép: Freepik
Magyarországi leányvállalatának 2021-es megalapítása után újabb K+F projekttel bővíti budapesti központját a Tulip Interfaces. Az amerikai gyártástechnológiai vállalkozás csapata a befektetés után 26 mérnökkel bővül, akiknek feladata a „no-code platform” fejlesztésének támogatása lesz. Az 5,8 millió euró értékű K+F beruházással a cég tovább erősíti befolyását az európai tech piacon.
A Paks II. Zrt. elnök-vezérigazgatója a TelePaks Kistérségi Televízió stúdiójában értékelte az elmúlt időszakot.