Cookie / Süti tájékoztató
Kedves Látogató! Tájékoztatjuk, hogy a weboldal működésének biztosítása, látogatóinak magasabb szintű kiszolgálása, látogatottsági statisztikák készítése, illetve marketing tevékenységünk támogatása érdekében cookie-kat alkalmazunk. Az Elfogadom gomb megnyomásával Ön hozzájárulását adja a cookie-k, alábbi linken elérhető tájékoztatóban foglaltak szerinti, kezeléséhez.
Elfogadom
Nem fogadom el
A mesterséges intelligencia „magabiztos stílusa” önmagában veszélyes lehet
2023.07.10

A mesterséges intelligencia „magabiztos stílusa” önmagában veszélyes lehet

A mesterséges intelligencia (MI) felhasználói hajlamosak emberi tulajdonságokkal felruházni „munkatársukat”, megfeledkezve arról, hogy „magabiztossága” nem valós tulajdonságuk.

A generatív mesterséges intelligencia (MI) felhasználása szélsebesen terjed a legkülönbözőbb szakmai alkalmazásoktól a magáncélokig, ám a felhasználók minden figyelmeztetés ellenére hajlamosak megfeledkezni legalapvetőbb hiányosságáról, a pontatlanságról – hívták fel a figyelmet kutatók a Techplore szakportálon.

Ez azzal az eredménnyel járhat, hogy az MI megerősíti, kódolja a felhasználóiban a negatív sztereotípiákat és az enyhén szólva pontatlan, szigorúbban nonszensz információkat, amelyeket – a szakzsargonból vett kifejezéssel élve – „hallucinál”. A kisebbségi csoportok a velük kapcsolatos elterjedt előítéletek miatt az átlagosnál inkább áldozatai lehetnek ennek a helyzetnek.

Minél elterjedtebb a generatív MI használata, annál nagyobb a veszélye ennek a negatív kódolásnak. A mesterséges intelligencia ugyanis újra és újra elismételheti ezeket a torz információkat, amelyeket a használói újra és újra elfogadnak létrehozva egy egymást erősítő folyamatot.

Az elfogultságok, egyoldalúságok kódolásáról Abeba Birhane komputertudománnyal foglalkozó professzor társszerzői közreműködésével jelent meg tanulmány a Science magazinban.

 

„Magabiztos” válaszok

A szakértő abból indul ki, amivel nap mint nap találkozunk. Az emberek a nekik feltett kérdésekre általában némi bizonytalansággal válaszolnak. Például úgy kezdik a mondanivalójukat, hogy „Azt gondolom…” vagy „Azt hiszem…” A bizonytalanságot az is kifejezheti, hogy a késik a válasz, mert a válaszadó gondolkodik azon, hogy mit mondjon.

Ezzel szemben a generatív mesterséges intelligencia magabiztosnak látszó módon kommunikál. Nincs bizonytalanság és nem jelzi, hogy a válaszához nem rendelkeznek minden szükséges információval. Csak arra támaszkodhat, amit korábban megtanítottak neki.

Ennek az lehet a következménye, hogy a felhasználók pontosabbnak érzékelik a generatív MI válaszait az emberekéinél, ami az információk súlyos torzulásához vezethet. A mesterséges intelligencia ezzel a „magabiztosságával” azt az érzetet keltheti felhasználóiban, hogy a tőle származó információk megbízhatóbbak, pontosabbak az emberi kommunikációban folyó információcserénél.

Ezt támogatja, hogy az MI-vel kapcsolatos bizalom erősítésében érdekelt felhasználók – leginkább olyan vállalatok, amelyek ügyfeleik kiszolgálásában támaszkodnak rá – emberi tulajdonságokkal ruházzák fel a mesterséges intelligenciát. Ilyen tulajdonságok az intelligencia és az empaátia.

 

Eltorzulhat a bíráskodás

Az egyik terület, ahol az MI képessége a torzulások kódolására különösen veszélyes, a bíráskodás. A mesterséges intelligenciát használó bírók készpénznek vehetik azokat az előítéleteket, amelyeket az MI a tanulása során betáplált információk alapján állít. Például azt gondolhatják, hogy a fekete bőrű elítéltek az átlagosnál hajlamosabbak arra, hogy visszaesővé váljanak, pedig az ezzel kapcsolatos statisztikai adatok nem emberi tulajdonságokról szólnak.

A generatív mesterséges intelligencia határozott, újra és újra elismételt adatközlései azonban kódolhatnak a bírókban egy ilyen előítéletet, ami aztán hatással lehet az ítélkezésükre. És ezzel máris létrejöhet egy ördögi kör, amelyben a kódolt információ erősít valamilyen gyakorlatot, ami aztán tovább szaporítja a neki megfelelő eseteket, erősítve előfordulásuk statisztikai gyakoriságát.

A gyerekek esetén különösen nagy ennek a kódolásnak a veszélye, mert ők hajlamosabbak megszemélyesíteni a tárgyakat.

Birhane professzor mindebből arra a következtetésre jut, hogy további erőfeszítéseket kell tenni a felhasználók tájékoztatására arról, hogyan működik a mesterséges intelligencia. Arról is informálni kell az embereket, hogy milyen torzulásokhoz vezethet az a felhajtás, ami manapság az új MI-technológiák körül folyik.

______

Forrás: Techplore

Következő esemény
2023.10.17 10:00