Η Apple ετοιμάζει ένα παγκόσμιο safe space για παιδιά με νέες λειτουργίες

Μια λειτουργία που θολώνει τις γυμνές φωτογραφίες και μια ακόμη μεταξύ άλλων που σαρώνει για ενδεχόμενο υλικό σεξουαλικής κακοποίησης παιδιών θα γίνουν σύντομα διαθέσιμες παγκοσμίως.

Η Apple έθεσε την λειτουργία που θολώνει αυτόματα τις εικόνες, οι οποίες περιέχουν γυμνό και αποστέλλονται σε παιδιά που χρησιμοποιούν την υπηρεσία μηνυμάτων της εταιρείας, και σε άλλες χώρες. Η λειτουργία ξεκίνησε στις ΗΠΑ πέρυσι και πλέον θα είναι διαθέσιμο στις εφαρμογές Messages σε iOSiPadOS και macOS για χρήστες στο Ηνωμένο Βασίλειο, τον Καναδά, τη Νέα Ζηλανδία και την Αυστραλία. Μολονότι το ακριβές χρονοδιάγραμμα δεν έχει γίνει σαφές, σύμφωνα με τον Guardian η λειτουργία θα πάει κι στο Ηνωμένο Βασίλειο “σύντομα”.

Συγκεκριμένα, η σάρωση γίνεται στη συσκευή και δεν επηρεάζει την end-to-end κρυπτογράφηση των μηνυμάτων. Όσο για τα βήματα ενεργοποίησης της, η οποία είναι ενσωματωμένη στο υπάρχον σύστημα Family Sharing της Apple, οι χρήστες μπορούν να τις βρουν εδώ. Η λειτουργία opt-in σαρώνει τις εισερχόμενες και εξερχόμενες εικόνες για “sexual explicit” υλικό με στόχο την προστασία των παιδιών ενώ εάν βρεθεί αντίστοιχο περιεχόμενο, η εικόνα θολώνει δίνοντας οδηγίες για την αναζήτηση βοήθειας και προειδοποιήσεις.

Παρόμοια με την αρχική κυκλοφορία του στις ΗΠΑ, τα παιδιά θα έχουν τη δυνατότητα να στέλνουν μηνύματα σε έναν ενήλικα που εμπιστεύονται σχετικά με μια φωτογραφία που έχει επισημανθεί ως “censored”. Η Apple ανακοίνωσε τη λειτουργία τον περασμένο Αύγουστο, η οποία θα είναι σε μορφή αυτόματης ειδοποίησης, με αποτέλεσμα ορισμένοι επικριτές να μιλούν για μια καταχρηστική και υπερβολικά ελεγκτική πρακτική, η οποία μπορεί να θέσει σε κίνδυνο “ξεσκεπάζοντας” τα queer παιδιά στους γονείς τους. Η Apple επεκτείνει ακόμη την εξάπλωση μιας νέας λειτουργίας για τις αναζητήσεις Spotlight, Siri και Safari, η οποία θα υποδεικνύει στους χρήστες πηγές ασφαλείας εάν αναζητούν θέματα που σχετίζονται με τη σεξουαλική κακοποίηση παιδιών.

Παράλληλα με αυτά τα δύο χαρακτηριστικά ασφαλείας για παιδιά, η Apple ανακοίνωσε αρχικά μια επιπλέον πρωτοβουλία τον προηγούμενο Αύγουστο, η οποία αφορούσε τη σάρωση φωτογραφιών για υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) πριν από τη μεταφόρτωσή τους στο λογαριασμό iCloud ενός χρήστη. Ωστόσο, η λειτουργία αυτή προκάλεσε επίσης έντονες αντιδράσεις από τους υποστηρικτές της ιδιωτικής ζωής, οι οποίοι έκριναν ότι υπήρχε κίνδυνος να εισαχθεί μια κερκόπορτα που θα υπονόμευε την ασφάλεια των χρηστών της Apple.

Η εταιρεία ανακοίνωσε αργότερα ότι θα καθυστερήσει την κυκλοφορία και των τριών χαρακτηριστικών υπόψη των προβληματισμών. Έχοντας κυκλοφορήσει τα δύο πρώτα χαρακτηριστικά, η Apple δεν έχει ενημερώσει σχετικά με το πότε θα γίνει διαθέσιμη αυτή η αμφιλεγόμενη λειτουργία ανίχνευσης CSAM.

Πηγή: startupper.gr

Exit mobile version