2024.02.19. 06:00
A virtuális barátnő igazából egy adatvédelmi horror
A virtuális barátnőként működő „szerelmes mesterséges intelligencia chatbotok” többsége, amelyek barátnőnek mutatják magukat magányos emberek vigasztalására, valójában nagy mennyiségű, megdöbbentően személyes felhasználói adatot gyűjtenek és adnak el.
Forrás: EVA AI Chat Bot & Soulmate
Az utóbbi időben rohamosan népszerűvé váltak a ChatGPT -hez hasonló AI chatbotok. Sorra jelennek meg olyan, okostelefonon vagy számítógépen elérhető MI/AI chatbot-szolgáltatások is, amelyek nők és férfiak virtuális szeretőjének adják ki magukat.
A Firefox böngészőt is fejlesztő Mozilla biztonsági kutatói azonban arra figyelmeztetnek *Privacy Not Included (Adatvédelmet nem tartalmaz) tanulmányukban, hogy többségük nem védi a magukat ijesztően kiszolgáltató felhasználók adatait.
Hogy teljesen őszinte legyek, a mesterséges intelligencia barátnők és barátok nem a barátaink
– mondta Misha Rykov, a Mozilla kutatója. „Bár úgy reklámozzák őket, hogy javítják a mentális egészségét és jólétét, valójában fokozzák a függőséget, a magányt, és közben a lehető legtöbb adatot kiszedik a felhasználóból.”
A Mozilla tizenegy különböző AI romantikus chatbotba ásott bele, köztük olyan népszerű alkalmazásokba, mint a Replika, Chai, Romantic AI, EVA AI Chat Bot & Soulmate és a CrushOn.AI. Mind megkapta a Privacy Not Included címkét:
a chatbotok a Mozilla által valaha vizsgált legrosszabb termékek közé tartoznak.
Éppen elég történetet hallottunk már adatvédelmi problémákról, de a Mozilla szerint az AI barátnők „aggasztóan új módszerekkel” sértik meg a magánéletet. Például a CrushOn.AI intim adatokat gyűjt, beleértve a szexuális egészséggel, a gyógyszerhasználattal és a nemi hovatartozással kapcsolatos információkat. A vizsgált alkalmazások 90 százaléka kiárusít vagy megoszt felhasználói adatokat célzott hirdetésekhez és egyéb (?) célokra, és több mint fele nem engedi törölni az általuk már gyűjtött adatokat. Összesen egy alkalmazás, a Genesia AI Friend & Partner teljesítette legalább a Mozilla minimális biztonsági előírásait.
Lehangoló adat a tanulmányukban, hogy a Mozilla megszámolta a nyomkövetőket (kis kódrészleteket, amelyek adatokat gyűjtenek és megosztanak más cégekkel) az alkalmazásokban. Úgy találták, hogy az AI barátnős alkalmazások percenként átlagosan 2663 nyomkövetőt használtak: bár a Romantic AI még ezt is túlteljesítette, mert 24 354 nyomkövetőt hívott meg mindössze egy perc alatt.
És ráadásul az alkalmazások aktívan arra ösztönzik a felhasználóikat, hogy olyan intim részleteket osszanak meg velük, amelyek sokkal-sokkal személyesebbek, mint amilyeneket bárkinek megadnánk. Az EVA AI Chat Bot & Soulmate arra készteti a felhasználót, hogy „ossza meg minden titkát és vágyát”, ezért fényképeket és hangfelvételeket is kér.
Az alkalmazások sok megkérdőjelezhető ígéretet megfogalmaznak azzal kapcsolatban, hogy mire valók. Az EVA AI Chat Bot & Soulmate például „a hangulat és a közérzet javítására kifejlesztett szoftverek és tartalmak szolgáltatójaként” tartja számon magát. A romantikus mesterséges intelligencia azt állítja, „azért van itt, hogy megőrizze felhasználója mentális egészségét”. Ha azonban elolvassuk a gyártó apróbetűs közleményeit, ténylegesen mindent megtesznek azért, hogy elhatárolódjanak saját előírásaiktól. Mert itt kötelezően leírják, hogy „egészségügyi szolgáltatást nem nyújtanak, sem orvosi ellátást, sem mentális vagy más szakmai szolgáltatást”.
A biztonsági és adatvédelmi aggályok mellett továbbra is kétségek merülnek fel az AI chatbotok által hirdetett funkcionalitással kapcsolatban. Megtörtént, hogy egy férfi, aki kapcsolatba lépett Chai mesterséges intelligencia csevegőbotjával, öngyilkosságot követett el az MI támogatásával. A harmincéves férfi egyfajta menedéket talált Eliza chatbotnál, s hat hétig tartó intenzív eszmecseréjük végén megölte magát. Özvegye megrendítő részleteket osztott meg ezeknek az „intelligens” beszélgetőpartnereknek az etikájáról.
Még korábban egy férfi, a 21 éves Jaswant Singh Chail a Replika mesterséges intelligencia chatbottal került szoros kapcsolatba, ami megerősítette és támogatta tervében, hogy meggyilkolja Anglia néhai királynőjét.
Az AI chatbotokat fejlesztő cégek elhárítanak minden felelősséget azzal, hogy szolgáltatási feltételeikben leírják: nem vállalnak garanciát az AI által okozott esetleges veszteségekért.
Digitália
- Segítség! Houston, idefent az agyunk nem működik jól
- Akkor most utáljuk a karácsonyi videót?
- „Kérlek, halj meg!” – mi is megkérdeztük, miért adott ilyen tanácsot a chatbot egy egyetemistának
- Hogyan műt ez a robot csupán videókból tanulva úgy, mint az emberi orvosok?
- Ki hinné? Az első tömeges virtuális találkozót 1916-ban tartották