IT-jätten Apple implementerar nu en särskild robotiserad teknik för att automatiskt skanna användarnas alla fotografier som lagras i iCloud och rapportera misstänkt barnporr till myndigheterna. Kritiker menar dock att tekniken är ett angrepp mot användarnas privatliv och riskerar att missbrukas för politisk censur.

Apple låter meddela att man vill använda så kallad CSAM-teknik för att automatiskt söka igenom iPhones efter barnporr och andra typer av övergreppsmaterial. Inledningsvis är det enbart de amerikanska användarna som kommer att få sina bilder övervakade och kartlagda, men på sikt hoppas man kunna implementera tekniken även i Europa – om europeisk lagstiftning tillåter den integritetskränkande åtgärden.

Läs mer på nyadagbladet.se, Apple börjar skanna användarnas privata bilder