W sierpniu Apple zapowiedziało nowe funkcje systemów iOS, iPadOS i macOS, mające na celu ochronę młodszych użytkowników. Od samego początku wzbudzały one spore kontrowersje wśród specjalistów od zabezpieczeń i ochrony prywatności. We wrześniu ogłoszono, że ich wprowadzenie zostanie opóźnione. Teraz wszystkie wzmianki na temat jednej z nich zostały usunięte z oficjalnej strony internetowej Apple.

Najbardziej kontrowersyjna z zapowiedzianych funkcji miała polegać na automatycznym analizowaniu zdjęć przesyłanych do chmury iCloud w celu sprawdzenia, czy nie znajduje się wśród nich pornografia dziecięca. Miała ona działać poprzez porównywanie zdjęć przesyłanych przez użytkownika z bazami danych przygotowanymi przez odpowiednie organizacje rządowe. Pomysł ten spotkał się z falą krytyki ze strony specjalistów od zabezpieczeń, aktywistów i zwykłych użytkowników, którzy obawiali się m.in., że funkcja ta może w przyszłości zostać wykorzystana do szpiegowania obywateli przez rządy.

Mimo iż Apple zdecydowało się odłożyć wdrożenie kontrowersyjnej funkcji na czas nieokreślony, jeszcze do niedawna na oficjalnej stronie internetowej tej firmy w sekcji dotyczącej bezpieczeństwa dzieci można było znaleźć opis jej działania i planów dotyczących jej wprowadzenia w przyszłych wersjach systemu iOS. Teraz został on jednak usunięty. Pozostawiono natomiast informacje o innej kontrowersyjnej funkcji, wprowadzonej wraz z premierą iOS 15.2, wykorzystującej sztuczną inteligencję do analizowania zdjęć wysyłanych i odbieranych przez młodszych użytkowników za pomocą komunikatora iMessage, w celu sprawdzenia czy nie zawierają treści pornograficznych.

Wielu internautów potraktowało usunięcie wszystkich wzmianek o automatycznym analizowaniu zdjęć przesyłanych do chmury jako symboliczne wycofanie się Apple z tego kontrowersyjnego projektu. Jeden z przedstawicieli firmy powiedział jednak wczoraj dziennikarzom serwisu The Verge, że od września plany dotyczące wprowadzenia nowych zabezpieczeń nie uległy żadnym zmianom.

Źródło: The Verge