Facebook heeft een systeem aangekondigd dat met kunstmatige intelligentie op zoek gaat naar zogenoemde wraakporno, zodat die sneller kan worden verwijderd van Facebook en Instagram.
Het systeem gaat niet alleen op zoek naar naaktbeelden, maar ook naar bijna-naaktbeelden. De techniek kan volgens Facebook ook foto’s en video’s herkennen die zonder toestemming via Facebook en Instagram zijn gedeeld.
Facebook kan wraakporno dan nog voordat iemand anders er melding van maakt offline halen. Dat is volgens het bedrijf belangrijk omdat slachtoffers vaak bang zouden zijn zelf melding te doen, uit angst voor vergelding. Ook zouden slachtoffers vaak nog niet weten dat er gevoelige beelden van hen online staan.
Een speciaal getraind lid van het Facebook-moderatieteam beoordeelt de afbeeldingen en video’s die worden gerapporteerd, zowel door mensen als door de kunstmatige intelligentie. Is er inderdaad sprake van wraakporno, dan worden de beelden verwijderd en maakt Facebook er een ‘digitale vingerafdruk’ van, zodat herhaalpogingen om de beelden te delen niet werken.
Facebook startte in 2017 jaar al een programma waarbij mensen zelf beelden, waarvan zij vrezen dat die door een ander als wraakporno worden geplaatst, bij Facebook kunnen indienen. Dat systeem werkt vooralsnog alleen in Australiƫ en meldingen worden niet bij Facebook gedaan, maar bij de Australische overheidstak voor veilig internet.
Om slachtoffers te helpen, heeft Facebook daarnaast de nieuwe pagina Niet zonder mijn toestemming online gezet. Daar vinden slachtoffers van wraakporno alle stappen om beelden te rapporteren, krijgen ze tips en worden ze doorverwezen naar experts.
In Nederland kunnen slachtoffers van wraakporno terecht bij de site Meldknop.nl, een initiatief van overheid, politie en hulpinstanties. Via die site kunnen slachtoffers ook contact zoeken met de politie, om aangifte te doen. Facebook heeft vooralsnog geen samenwerking met een Nederlandse instantie.
Facebook heeft een systeem aangekondigd dat met kunstmatige intelligentie op zoek gaat naar zogenoemde wraakporno, zodat die sneller kan worden verwijderd van Facebook en Instagram.
Het systeem gaat niet alleen op zoek naar naaktbeelden, maar ook naar bijna-naaktbeelden. De techniek kan volgens Facebook ook foto’s en video’s herkennen die zonder toestemming via Facebook en Instagram zijn gedeeld.
Facebook kan wraakporno dan nog voordat iemand anders er melding van maakt offline halen. Dat is volgens het bedrijf belangrijk omdat slachtoffers vaak bang zouden zijn zelf melding te doen, uit angst voor vergelding. Ook zouden slachtoffers vaak nog niet weten dat er gevoelige beelden van hen online staan.
Een speciaal getraind lid van het Facebook-moderatieteam beoordeelt de afbeeldingen en video’s die worden gerapporteerd, zowel door mensen als door de kunstmatige intelligentie. Is er inderdaad sprake van wraakporno, dan worden de beelden verwijderd en maakt Facebook er een ‘digitale vingerafdruk’ van, zodat herhaalpogingen om de beelden te delen niet werken.
Bron: nu.nl
Test
Niks
Dubbele