18+

Felnőtt tartalom

Elmúlt már 18 éves?Ezen az oldalon felnőtt tartalom található!

UNICEF-riasztás: a mesterséges intelligencia új frontot nyitott a gyermekek bántalmazásában

Hírek
2026. február 05. 15:24

A gyermekek nem várhatnak arra, hogy a jogszabályok utolérjék a technológiát.

Az UNICEF egyre nagyobb aggodalommal figyeli azokat a jelentéseket, amelyek szerint egyre több a teljesen valósághűnek tűnő, mesterséges intelligencia (MI) által létrehozott, vagy módosított szexualizált kép és felvétel az interneten. Vészjósló, hogy egyre több az olyan eset is, amikor gyermekekről készült fényképeket manipulálnak, vagy hoznak létre és helyezik őket szexuális kontextusba.

A deepfake felvételek közé tartozik az úgynevezett „meztelenítés” is, amikor MI-eszközökkel eltávolítják, vagy átalakítják a ruházatot a már meglévő fotókon, hogy hamis, meztelen, vagy szexuális jellegű képeket hozzanak létre.

Új bizonyítékok mutatják meg a probléma és a fenyegetettség mértékét a gyerekekre vonatkozóan: a legfrissebb, 11 országra kiterjedő kutatás (UNICEF, ECPAT és INTERPOL közös kutatása, 2025)** szerint az elmúlt egy évben legalább 1,2 millió gyermek számolt be arról, hogy a róla készült képeket szexuális tartalommá alakították át deepfake formában. Egyes országokban ez azt jelenti, hogy minden 25. gyermek érintett – vagyis már minden átlagos iskolai osztályban van egy gyerek, aki személyesen élte át a bántalmazás új formáját.

Maguk a gyerekek is tisztában vannak a veszéllyel. A vizsgált országokban élő gyermekek többsége elmondta, hogy aggódik amiatt, hogy szexuális képeket vagy videókat készítenek róluk a mesterséges intelligenciával. Az aggodalom mértéke országonként jelentősen eltér, ami világosan jelzi, mennyire sürgős a tudatosság növelése, a megelőzést és védelmet szolgáló intézkedések megerősítése, valamint a figyelem felhívása a problémára.

Egyértelműen kell fogalmaznunk. A mesterséges intelligenciával létrehozott vagy manipulált, szexualizált gyermekképek gyermekek szexuális bántalmazását ábrázoló anyagnak minősülnek. A deepfake bántalmazás valódi bántalmazás, ami mély sebeket ejt és mérhető károkat okoz.

Amikor egy gyermek képmását vagy személyazonosságát használják fel, közvetlen áldozattá válik. De még akkor is, ha nincs azonosítható áldozat, az MI-vel előállított gyermekpornográf anyagok normalizálják a gyermekek szexuális kizsákmányolását, növelik az ilyen tartalmak iránti keresletet és komoly nehézségeket okoznak a bűnüldöző szervek számára a segítségre szoruló gyermekek azonosításában és védelmében.

Az UNICEF üdvözli azon MI-fejlesztők erőfeszítéseit, akik már a tervezés során beépített biztonsági megoldásokat és szigorú védőkorlátokat alkalmaznak abból a célból, hogy a visszaéléseket elkerülhessék, azonban még így is túl sok MI-modell készül megfelelő biztosítékok nélkül. A kockázatot tovább növeli, amikor a manipulációs eszközök közvetlenül elérhetők a közösségimédia-platformokon, ahol a képek és tartalmak villámgyorsan terjednek.

Az UNICEF sürgős lépéseket szorgalmaz az MI-vel előállított, vagy módosított, gyermekeket érintő szexuális bántalmazó anyagok terjedésének megfékezése érdekében:

  • Minden kormány terjessze ki a gyermekek szexuális kizsákmányolását ábrázoló anyagok jogi meghatározását az MI-vel létrehozott tartalmakra és tegye büntethetővé azok előállítását, megszerzését, birtoklását és terjesztését.
  • Az MI-fejlesztők már a tervezés pillanatában ügyeljenek a biztonságra és építsenek be erős védelmi mechanizmusokat a modellek visszaélésszerű használatának megakadályozására.
  • A digitális platformok ne csak utólag távolítsák el az MI-vel előállított, gyermekeket szexuálisan kizsákmányoló tartalmakat, hanem aktívan akadályozzák meg azok terjedését; erősítsék a tartalommoderálást és fektessenek be olyan felismerő technológiákba, amelyek lehetővé teszik az ilyen anyagok azonnali eltávolítását – nem napokkal azután, hogy az áldozat vagy képviselője bejelentést tett.

Összegezve

  • Az UNICEF jelentést tett közzé, amelyben kiemelik, hogy a mesterséges intelligencia által generált szexualizált képek károsító hatással vannak a gyermekekre.
  • A kutatás eredményei szerint 11 országban 1,2 millió gyermek tapasztalta, hogy képeiket deepfake technikával manipulálták.
  • A deepfake technológia lehetővé teszi a gyermekek képeinek szexualizált manipulációját anélkül, hogy tényleges kapcsolat lenne.
  • Az UNICEF hangsúlyozza az MI fejlesztők és a jogalkotók felelősségét megelőző intézkedések bevezetésében.
  • Fontos, hogy globális tudatosítás és együttműködés történjen a terjeszkedő technológia veszélyeinek megfékezése érdekében.

Kövesse az Egészségkalauz cikkeit a Google Hírek-ben, a Facebook-on, az Instagramon vagy a X-en,Tiktok-on is!

Forrás: unicef
# gyerek# gyerekbántalmazás# bántalmazás# online# mesterséges intelligencia# deefake# szexuális bántalmazás

TÜNETKERESŐ

Milyen betegségre utalhatnak a tünetei?

Keresés, pl. fejfájás

Írja be a keresőmezőbe a tünetet vagy kattintson a testmodellen arra a testrészre, ahol a tüneteket észleli.

emberi test ábra

Mi a tünetkereső?

Ingyenes tünetellenőrző, ami percek alatt segíthet beazonosítani a problémáját!

Adja hozzá a Híreket a Google hírfolyamához

Címlapról ajánljuk

(function () {function callGoogleTag(doNotPersonalise) {var nonPersonalisedAds = typeof doNotPersonalise === 'boolean' ? Number(doNotPersonalise) : 1; var adPreview = ((document.location.search.match(/adPreview=[^&]+/g) || [])[0] || '').split('=').pop(); var pageUrl = ''; var pagePath = document.location.pathname.slice(0, 40); var pathArr = (document.location.pathname.match(/([^/]+)/gm) || []).reverse(); for (var i = 0; i < pathArr.length; i++) {if (pathArr[i].match(/^[0-9]+$/g) === null) {pageUrl = pathArr[i].slice(0, 40); break; }} if (window.googletag && window.googletag.cmd) {googletag.cmd.push(function () { googletag.pubads().setRequestNonPersonalizedAds(nonPersonalisedAds); googletag.pubads().collapseEmptyDivs(); googletag.pubads().setTargeting('pageUrl', pageUrl); googletag.pubads().setTargeting('pagePath', pagePath); googletag.pubads().setTargeting('adPreview', adPreview); googletag.enableServices(); }); }} if (typeof window['__tcfapi'] === 'function') {window.__tcfapi('addEventListener', 2, function (tcData, success) {if (success && (tcData.eventStatus === 'tcloaded' || tcData.eventStatus === 'useractioncomplete')) { callGoogleTag(false); window.__tcfapi('removeEventListener', 2, function (success) { }, tcData.listenerId); }}); } else { callGoogleTag(true); } })();