Rekordösszegű bírságot kapott egy bank a NAIH-tól, mert az ügyfelek érzelmi állapotát vizslatták
2022. április 05.
Rekordbüntetést szabott ki a Nemzeti Adatvédelmi és Információszabadság Hatóság (NAIH), melyet a március végén megjelent előző évi beszámolójában hozott nyilvánosságra. Amellett, hogy ez volt az eddigi legmagasabb összegű adatvédelmi büntetés, egyben az első is, mely mesterséges intelligencia jogszerűtlen felhasználásából adódik.

A NAIH beszámolója szerint egy meg nem nevezett pénzintézeti szereplő (bank) mesterséges intelligenciával vezérelt szoftveres megoldást alkalmazott az ügyfelek érzelmi állapotának automatizált feldolgozására. A beszédjel-felismerő és értékelő rendszer az ügyfelek hangulati állapota alapján határozta meg, mely ügyfeleket szükséges visszahívni. A bank az alkalmazást panasz és ügyfélelvándorlás megelőzése érdekében üzemeltette. A NAIH utasította a bankot az érzelmi állapotok elemzésének abbahagyására, mivel az számos ponton sérti az Általános Adatvédelmi Rendeletet (GDPR).

A mesterséges intelligencia rendszerekkel kapcsolatos kutatások száma és a tanuláson alapuló alkalmazások üzleti felhasználása az előző évtizedben jelentősen megnövekedett.  Ez nagyrészt a technológiai környezet megváltozásának köszönhető, azonban a hatályban lévő jogi szabályozása még várat magára. A mesterséges intelligencia-rendszerek képesek többek között nyelvi elemek feldolgozására is, mely alkalmassá teszi az emberi beszéd és hangelemek kiértékelésére, így az érzelmi és hangulati ingadozások viszonylag pontos meghatározására. Az intelligens rendszerek efféle felhasználása számos kivetnivalót eredményezhet, mivel etikailag is megkérdőjelezhető felhasználásuk, rejtett előítéleteket tartalmazhat, ez pedig egyéb adatok felhasználásával diszkriminatív lehet az ügyfelekre nézve.

Az eset számos problémát felvet; először is az ügyben érintett bank nem szerepeltette az adatvédelmi tájékoztatójában, hogy az adatkezelésnek többek közt ügyfélmegtartó szerepe is van, az ügyfelek tájékoztatás hiányában így tiltakozni sem tudtak ellene. Ezenfelül az érdekmérlegelési tesztben nem vizsgálják az érintettek oldalát, nem részletezik a hangulati állapot elemzését és az adatvédelmi hatásvizsgálatban sem javasolnak érdemi megoldást ennek a nem elhanyagolható kockázatnak a csökkenésére – elemezte az ügyet a Deloitte Kockázatkezelési tanácsadás üzletágának szakértője, dr. Barta Gergő.

A NAIH kötelezése felhívja a figyelmet az adatkezeléssel kapcsolatban

  • az érintetti jogok megfelelő biztosítására, különösen, de nem kizárólagosan
  • a megfelelő tájékoztatásra és
  • a tiltakozáshoz való jog biztosítására.

Az adatkezelésnek a szükségesre kell korlátozódnia, és ennek megfelelő tájékoztatást kell nyújtani az érintettek részére a kapcsolódó pontos következmények megjelölésével.

A jelen eset kapcsán érdemes megemlíteni, hogy az EU-s mesterséges intelligenciáról szóló rendelettervezet 52. cikke alapján az érzelemfelismerő rendszereknél a tervezet szigorú tájékoztatási kötelezettségeket állapít meg, amelyek megszegése esetén magas, tiltott gyakorlatok alkalmazása esetén, akár 30 millió eurós bírsággal kell számolni.

Ez az ügy tökéletesen szemlélteti, hogy a mesterséges intelligenciára egy új típusú és fokozott kockázatú technológiaként kell gondolnunk, amit működési elvéből adódóan igen nehezen lehet átlátni és követni. A GDPR követelményei nem csak adminisztrációs feladatokat rónak az adatkezelőkre, a dokumentumokat nem elegendő csak formailag elkészíteni, a teendőt „kipipálni”. Jogos érdek alkalmazása esetén ez azt jelenti, hogy az érintetteket fenyegető adatvédelmi kockázatokat teljes körűen fel kell tárni, és ezek kezelésére alkalmas szervezeti és technológiai garanciákat kell az adatkezelőnek életbe léptetnie. Nem magától értetődő tehát, hogy az adatkezelő jogos érdekére alapítva minden esetben megvalósítható az adatkezelés csak azért, mert erről egy teszt készül – tette hozzá a tanácsadócég technológiai és adatvédelmi csoportjának jogi szakértője, dr. Albert Lili.

Adatkezelési tájékoztató