Tech hvg.hu 2022. április. 06. 08:03

Lebukott egy magyar bank: 250 millióra büntette a NAIH, amiért mesterséges intelligenciával figyeltette ügyfeleit

Rekordbüntetést szabott ki a NAIH, melyet a március végén megjelent előző évi beszámolójában hozott nyilvánosságra. Amellett, hogy ez az eddigi legmagasabb adatvédelmi büntetés, egyben az első is, mely mesterséges intelligencia jogszerűtlen felhasználásából adódik – írja elemzésében a Deloitte tanácsadó cég.

A NAIH beszámolója szerint egy – meg nem nevezett – bank mesterséges intelligenciával vezérelt szoftveres megoldást alkalmazott az ügyfelek érzelmi állapotának automatizált feldolgozására. A beszédjel-felismerő és értékelő rendszer az ügyfelek hangulati állapota alapján határozta meg, mely ügyfeleket szükséges visszahívni. A bank az alkalmazást panasz és ügyfélelvándorlás megelőzése érdekében üzemeltette. A NAIH utasította a bankot az érzelmi állapotok elemzésének abbahagyására, mivel az számos ponton sérti a GDPR adatvédelmi rendeletet.

A történések hátterét feltáró elemzésében a Deloitte emlékeztet: a mesterségesintelligencia-rendszerekkel kapcsolatos kutatások száma és a tanuláson alapuló alkalmazások üzleti felhasználása az előző évtizedben jelentősen megnövekedett. Ez nagyrészt a technológiai környezet megváltozásának köszönhető, azonban a hatályban lévő jogi szabályozása még várat magára. A mesterséges intelligencia rendszerek képesek többek között nyelvi elemek feldolgozására is, mely alkalmassá teszi az emberi beszéd és hangelemek kiértékelésére, így az érzelmi és hangulati ingadozások viszonylag pontos meghatározására. Az intelligens rendszerek efféle felhasználása számos kivetnivalót eredményezhet, mivel etikailag is megkérdőjelezhető felhasználásuk, rejtett előítéleteket tartalmazhat, ez pedig egyéb adatok felhasználásával diszkriminatív lehet az ügyfelekre nézve.

„Az eset számos problémát felvet; először is az ügyben érintett bank nem szerepeltette az adatvédelmi tájékoztatójában, hogy az adatkezelésnek többek közt ügyfélmegtartó szerepe is van, az ügyfelek tájékoztatás hiányában így tiltakozni sem tudtak ellene. Ezenfelül, az érdekmérlegelési tesztben nem vizsgálják az érintettek oldalát, nem részletezik a hangulati állapot elemzését és az adatvédelmi hatásvizsgálatban sem javasolnak érdemi megoldást ennek a nem elhanyagolható kockázatnak a csökkenésére” – elemzi az ügyet Barta Gergő, a Deloitte kockázatkezelési tanácsadásra fókuszáló üzletágának szakértője.

A NAIH kötelezése felhívja a figyelmet az adatkezeléssel kapcsolatban az érintetti jogok megfelelő biztosítására, különösen a megfelelő tájékoztatásra és a tiltakozáshoz való jognak a biztosítására. Az adatkezelésnek a szükségesre kell korlátozódnia, és ennek megfelelő tájékoztatást kell nyújtani az érintettek részére a kapcsolódó pontos következmények megjelölésével.

A Deloitte szerint a jelen eset kapcsán érdemes megemlíteni, hogy az EU-s mesterséges intelligenciáról szóló rendelettervezet 52. cikke alapján az érzelemfelismerő rendszerek esetében a tervezet szigorú tájékoztatási kötelezettségeket állapít meg, amelyek megszegése esetén magas, tiltott gyakorlatok alkalmazása esetén, akár 30 millió eurós bírsággal kell számolni.

„Ez az ügy tökéletesen szemlélteti, hogy a mesterséges intelligenciára egy új típusú és fokozott kockázatú technológiaként kell gondolnunk, amit működési elvéből adódóan igen nehezen lehet átlátni és követni” – idézi a Deloitte közleménye Albert Lilit, a cég adatvédelmi csoportjának jogi szakértőjét, aki arra is felhívja a figyelmet: a GDPR által előírt tennivalókat nem elég csak lepapírozva kipipálni.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.

Hirdetés