Fontos, hogy megfelelően használjuk a mesterséges intelligenciát

2024. október 12. 08:45 | behir.hu

Hogyan maradhat a mesterséges intelligencia hosszú távon hasznos az emberiség számára? Miért kulcsfontosságúak a jó minőségű adatok? Mit lehet tenni a deepfake ellen és mik azok a mesterséges intelligencia sandboxok? A témában Badinszky Áron jogász, az ELTE munkatársa, az MI jogi szabályozásának szakértője osztotta meg gondolatait.

Az MI gyors fejlődése napjaink egyik legnagyobb technológiai forradalmát jelenti. Badinszky Áron, aki a mesterséges intelligencia jogi aspektusait kutatja, úgy látja, hogy a mesterséges intelligencia életünk részéve vált, de csak akkor maradhat tartósan hasznos, ha az emberek megtanulják hatékonyan, felelősen és fenntarthatóan alkalmazni. A technológia biztosan velünk marad, de azt, hogy a mi érdekünkben is dolgozzon, csak az etikus fejlesztés biztosítja.

Forrás: Helló Sajtó!

Badinszky Áron jogász, az ELTE munkatársa, az MI jogi szabályozásának szakértője

 

A mesterséges intelligenciát fejlesztő vállalatok és kormányok egyre inkább felismerik annak fontosságát, hogy a technológia előnyeit minden társadalmi réteg egyaránt, biztonságban élvezhesse. Más célok mellett ennek előmozdítására jött létre az Európai Unióban az AI-rendelet is, amely emberközpontú, azaz az európai értékeket, alapjogokat végletekig tiszteleten tartó módon igyekszik keretek közé terelni az MI fejlesztésétét és felhasználását. Eközben az Egyesült Államokban és más nagyhatalmakban is kialakultak azok az etikai standardok, amelyek biztosítják, hogy az MI a társadalom érdekeit szolgálja. Napjainkban a globális MI fejlesztés ilyen kiemelt értékei az átláthatóság, az emberi felügyelet és a diszkriminációmentesség.

A mesterséges intelligencia működésének egyik alapja az adat, amelynek összetétele és részletessége meghatározza az algoritmusok hatékonyságát és az általuk létrehozott eredmények minőségét. Ahogyan Badinszky Áron fogalmaz „az adat az MI számára olyan, mint az üzemanyag az autóknak”. A minőségi – azaz a felhasználási terület sajátosságait tükröző – adatkészletek biztosítják az algoritmusok megbízható működését. Azonban, ha az MI hiányos, torzított adatokból dolgozik, az – pl. etnikai vagy nemi alapú – diszkriminációhoz vezethet. Az adatkészletet ennek megfelelően következetesen kell kialakítani, figyelembe véve különösen azt, hogy az MI által javasolt vagy meghozott döntések milyen mértékben befolyásolják a döntéseben érintett személyek életét.

Az MI alkalmazásával kapcsolatos etikai kérdések egyre nagyobb figyelmet kapnak, ezek súlyára különösen a deepfake technológia elterjedése hívja fel a figyelmet. Ez lehetővé teszi, hogy emberek kinézetét MI segítségével valósághűen lemásolják és manipulálják. Az így készített, hamisított felvételek a személyiségi jogokat sértő, vagy akár szexuális jellegű bűncselekményeket megvalósító visszaélések mellett dezinformációs eszközzé is válhatnak és akár választások kimenetelét is befolyásolhatják. Az ártó szándékú deepfake-ek ellen jelenleg még nem alakult ki és terjedt el hatékony eszköz és az elkövetők rendre ismeretlenek maradnak.

A generatív MI modellek, például a DALL-E vagy a Stable Diffusion, szintén szerzői jogi problémákat vetnek fel. Az algoritmusok működéséhez hatalmas mennyiségű adat szükséges, de sok esetben ezek az adatok engedély nélkül felhasznált szerzői művekből (könyvekből, filmekből, festményekből, stb.) származnak. A hollywoodi írók tavalyi sztrájksorozata és az ennek nyomán indult szerzői jogi perek rámutatnak arra, hogy a mesterséges intelligencia és a szellemi tulajdon körüli kérdések még mindig tisztázásra várnak.

Az innováció és a szabályozás közötti egyensúly megteremtése érdekében az Európai Unió kötelezővé tette az ún. sandboxok (azaz szabályozási tesztkörnyezetek) létrehozását, amelyek lehetőséget nyújtanak a vállalatoknak és innovatív szereplőknek arra, hogy biztonságos keretek között teszteljék MI fejlesztéseiket. A sandbox nyújtotta dinamikus – azaz a technológia fejlődésére gyorsan reagálni képes – szabályozási modell előmozdítja az innovációt, miközben a jogalkotók bevonásával védi a fogyasztókat és felhasználókat a potenciális kockázatoktól. A szabályozási tesztkörnyezetekben az MI-ről szerzett tapasztalatok később kiváló alapot szolgáltatnak a jogalkotóknak, hogy technológia és a piac sajátosságait valóban tükröző jogi kereteket alakítsanak ki. Az EU-ban 2026-ra minden országnak létre kell hoznia saját MI sandboxát, vagy csatlakoznia kell egy már működő tesztkörnyezethez.

Forrás: Helló Sajtó!

További programok »

FEL