Kruistocht Apple tegen kinderporno botst op kritiek
Maatregelen van Apple tegen kindermisbruik doen het debat over privacy oplaaien. Het bedrijf publiceerde een uitgebreide verklaring om zijn beleid toe te lichten.
CSAM heet het in de VS, en de afkorting staat voor Child Sexual Abuse Material, kinderpornografie dus. Vorige week maakte Apple bekend dat het zijn apparaten uitrust met nieuwe functies om kinderen en jongeren te beschermen. Dit najaar komt er een programma dat alarm slaat als het denkt op illegale beelden te zijn gestuit. 'Kinderpornodetectie zal Apple helpen waardevolle informatie te verstrekken aan de wetshandhavers over verzamelingen van kinderporno in iCloud-foto's', zegt het bedrijf.
Foto's op apparaten van gebruikers zullen, voordat ze naar de online opslagdienst iCloud van Apple worden geüpload, gecontroleerd worden aan de hand van een database met kinderpornografische afbeeldingen.
Kinderpornodetectie zal Apple helpen waardevolle informatie te verstrekken aan de wetshandhavers over verzamelingen van kinderporno in iCloud-foto's.
Voorts lanceert het bedrijf een optie waarbij ouders een waarschuwingsbericht krijgen als hun kind via de Apple-chatdienst Messages naaktfoto's ontvangt of verstuurt.
Meteen kwam er een stortvloed van ongeruste reacties van specialisten in dataprivacy. Critici vrezen dat de technologie ook kan worden getraind om andere data te detecteren. Autoritaire regimes zouden het systeem kunnen gebruiken om jacht te maken op dissidenten.
In een 'frequently asked questions'-document legt Apple uit dat de maatregelen twee verschillende technologieën gebruiken. Bij het berichtensysteem van Apple, Messages, gaat het over beelden die in die app worden verstuurd en ontvangen voor accounts van kinderen die zijn opgezet in 'family sharing'. De beelden worden onderzocht op het apparaat zelf. Het bedrijf krijgt de communicatie niet te zien en de encryptie blijft onaangetast.
Daarnaast is er de detectie van kinderporno in iCloud Photos, de dienst die gebruikers toelaat foto's op te slaan in de Apple-cloud. Beelden die niet op iCloud worden opgeslagen, worden niet gedetecteerd. Bij de iCloud-beelden heeft de detectie enkel te maken met beelden uit een databank met kinderpornofoto's, verzekert Apple.
Vergis je niet: als ze vandaag naar kinderporno kunnen scannen, kunnen ze morgen naar alles scannen.
Apple gebruikt 'hashes', cijferreeksen die kinderpornobeelden vertegenwoordigen die werden gecheckt door organisaties gespecialiseerd in kinderbescherming. Door nieuwe cryptografietoepassingen kan Apple de hashes enkel gebruiken om informatie in te winnen over iCloud Photos-accounts die collecties van foto's hebben die gekende kinderpornobeelden bevatten, zonder informatie te krijgen over andere foto's.
Apple beklemtoont dat het zal weigeren andere beelden toe te voegen aan de hashlijst. 'Deze technologie is beperkt tot CSAM opgeslagen in iCloud. We gaan niet in op de vraag van welke regering dan ook om dat uit te breiden.' Als het systeem kinderporno detecteert, checken mensen de beelden vooraleer de autoriteiten worden ingelicht.
Kritiek
Volgens de nieuwssite The Information onderzoekt ook Facebook hoe het kunstmatige intelligentie kan gebruiken om de inhoud van berichten te analyseren zonder de versleuteling op te heffen. Dat neemt niet weg dat de topman van de berichtenapp WhatsApp, die deel uitmaakt van Facebook, van leer trok tegen Apple. 'Ik vind dit een verkeerde benadering en een stap terug voor de privacy van mensen over de hele wereld', tweette hij.
Een open brief ondertekend door meer dan 5.000 mensen en organisaties vraagt Apple de maatregelen opnieuw te bekijken. Onder hen zijn heel wat privacy-experten. 'Hoe goedbedoeld het ook is, Apple introduceert hiermee massasurveillance over de hele wereld', hekelde de beroemde klokkenluider Edward Snowden op Twitter. 'Vergis je niet: als ze vandaag naar kinderporno kunnen scannen, kunnen ze morgen naar alles scannen', zei de voormalige CIA-medewerker die waarschuwde voor geheime spionagepraktijken.
- Apple voert maatregelen in die de verspreiding van kinderporno moeten tegengaan.
- Het bedrijf meent tegelijk de privacy van de gebruikers te kunnen beschermen.
- Critici vrezen dat overheden de technologie gaan misbruiken.
Meest gelezen
- 1 Stella Li, topvrouw Chinese autobouwer BYD: 'Wij hebben 122.000 ingenieurs, ons inhalen wordt moeilijk'
- 2 Wat betekent het paasakkoord voor uw pensioen?
- 3 Beperkte index voor hoge pensioenen en meer geld voor defensie: dit staat in De Wevers paasakkoord
- 4 Trump stelt smartphones en computers vrij van tarieven
- 5 Van Bol.com naar nucleaire start-up: Belgische bouwt nieuwe kleine kernreactor
Fondsen in Software / Hardware / Technologie
- Belfius Equities Robotics & Innovative Technology C
- Pictet - Robotics P EUR
- Pictet - Digital P EUR
- Argenta-Fund NEXT-GEN TECHNOLOGY R CAP