Mint kiderült, a vállalat az Európai Unióban a felhasználók hozzájárulása nélkül használt fel személyes adatokat mesterséges intelligencia (AI) modelljeinek betanítására. Az eset jelentős aggodalmat keltett az adatvédelmi szakemberek és szabályozó hatóságok körében, kérdéseket vetve fel a platform GDPR-megfelelőségével kapcsolatban.
Csendes adatgyűjtés az EU-ban
A botrány középpontjában egy nemrégiben felfedezett új beállítás áll, amelyet egy közösségi média felhasználó szúrt ki. Ez a beállítás jelezte, hogy az X elkezdte feldolgozni a regionális felhasználók bejegyzéseit a Grok AI chatbot betanításához. A felfedezés meglepte az Ír Adatvédelmi Bizottságot (DPC), amely felügyeli az X GDPR-megfelelőségét.
A GDPR szigorúan szabályozza a személyes adatok felhasználását, és előírja, hogy minden adatkezeléshez érvényes jogalap szükséges. Ennek megsértése súlyos pénzbírságot vonhat maga után, amely az adott vállalat globális éves forgalmának akár 4 százalékát is elérheti. Az X ellen kilenc adatvédelmi panaszt nyújtottak be Ausztriában, Belgiumban, Franciaországban, Görögországban, Írországban, Olaszországban, Hollandiában, Lengyelországban és Spanyolországban, amelyek mind azt állítják, hogy a platform a felhasználók beleegyezése nélkül használta fel az európaiak adatait AI betanításához.
Adatvédelmi aggályok és jogi lépések
Az Ír Adatvédelmi Bizottság már megtette az első lépéseket az X adatkezelési gyakorlatának felülvizsgálatára. Jogorvoslati kérelmet nyújtottak be az ír Legfelsőbb Bíróságon, hogy megakadályozzák a személyes adatok további felhasználását az AI betanításához. Azonban az adatvédelmi jogokkal foglalkozó nonprofit szervezet, a noyb, kritizálta a DPC intézkedéseit, rámutatva, hogy azok nem elegendőek. A noyb szerint az X felhasználói nem tudják elérni, hogy a közösségi platform törölje a már betáplált adatokat, ezért GDPR panaszt nyújtottak be Írországban és további hét uniós tagállamban.
A panaszok lényege, hogy az X nem rendelkezik érvényes jogalappal az EU-ban élő 60 millió felhasználó adatainak felhasználására az AI betanításához, amennyiben nem kérte a beleegyezésüket. A vállalat titokban használta fel a felhasználók adatait a Grok betanítására, anélkül, hogy értesítette volna őket.
Az Ír Adatvédelmi Bizottság szerint az X május 7. és augusztus 1. között dolgozta fel az európai felhasználók adatait a modell betanítására. A felhasználók csak július végén kaptak lehetőséget arra, hogy letiltsák az adatfeldolgozást a platform webes verziójában. Azonban addig nem volt mód a feldolgozás letiltására, ami megnehezítette az adatok AI betanításra történő felhasználásának megakadályozását.
Szélesebb körű adatvédelmi problémák az AI világában
Az X platform adatvédelmi botránya rávilágít arra, hogy az AI rendszerek fejlesztése során milyen komoly kihívásokkal kell szembenézni. Az X esete nem egyedülálló; több hasonló adatvédelmi incidens történt más nagy technológiai cégeknél is, mint például a Microsoft, az OpenAI, az IBM és a Clearview AI.
A Microsoftnál például egy jelentős adatvédelmi botrány alakult ki, amikor AI kutatók véletlenül több terabájtnyi érzékeny belső adatot tettek elérhetővé a nyilvánosság számára. Hasonlóképpen, az OpenAI ChatGPT rendszerében is adatvédelmi incidenst tapasztaltak, amikor egy technikai hiba következtében egyes felhasználók láthatták mások chatelőzményeinek címét.
Az AI modellek fejlesztése során felmerülő adatvédelmi problémák egyértelműen mutatják, hogy az adatvédelem mára kritikussá vált. A vállalatoknak fokozott figyelmet kell fordítaniuk arra, hogy betartsák a vonatkozó jogszabályokat, különösen az olyan szigorú előírásokat, mint amilyeneket a GDPR is megkövetel.
(Forrás: Fintech.hu)
(Címlapkép: Depositphotos)
Szólj hozzá