Η Meta Platforms ανακοίνωσε νέα εργαλεία που θα δίνουν στους γονείς μεγαλύτερο έλεγχο στις αλληλεπιδράσεις των εφήβων με τους ψηφιακούς συνομιλητές της τεχνητής νοημοσύνης, έπειτα από κύμα επικρίσεων για την «ανάρμοστη» συμπεριφορά ορισμένων chatbot.
Σύμφωνα με την εταιρεία, οι γονείς θα μπορούν πλέον να απενεργοποιούν τις ιδιωτικές συνομιλίες των παιδιών τους με χαρακτήρες AI, στο πλαίσιο μιας προσπάθειας να ενισχυθεί η ασφάλεια των ανηλίκων στα κοινωνικά δίκτυα της Meta, όπως το Instagram και το Facebook.
Νέοι κανόνες βασισμένοι στο σύστημα PG-13
Λίγες μέρες πριν, η Meta είχε ανακοινώσει ότι οι εμπειρίες τεχνητής νοημοσύνης για εφήβους θα ευθυγραμμίζονται με το κινηματογραφικό σύστημα αξιολόγησης PG-13, προκειμένου να αποτρέπεται η πρόσβαση σε ακατάλληλο περιεχόμενο.
Η κίνηση έρχεται καθώς οι αμερικανικές ρυθμιστικές αρχές αυξάνουν την πίεση στις εταιρείες AI, εξετάζοντας τους πιθανούς κινδύνους και επιπτώσεις των chatbots στους νέους χρήστες. Σύμφωνα με αποκαλύψεις του Reuters τον Αύγουστο, οι εσωτερικοί κανόνες της Meta επέτρεπαν συνομιλίες με προκλητικό τόνο μεταξύ των bot και των ανηλίκων.
Τα νέα εργαλεία εποπτείας και τα σχέδια για το 2026
Ο επικεφαλής του Instagram, Adam Mosseri, και ο Chief AI Officer της Meta, Alexandr Wang, παρουσίασαν τις νέες ρυθμίσεις, που θα τεθούν σε εφαρμογή στις αρχές του επόμενου έτους στις Ηνωμένες Πολιτείες, το Ηνωμένο Βασίλειο, τον Καναδά και την Αυστραλία.
Με τα νέα εργαλεία, οι γονείς θα μπορούν να:
- Αποκλείουν συγκεκριμένους χαρακτήρες AI,
- Παρακολουθούν τα βασικά θέματα που συζητούν οι έφηβοι με τα chatbot,
χωρίς όμως να χρειάζεται να διακόψουν πλήρως την πρόσβαση των παιδιών στην τεχνητή νοημοσύνη.
Ακόμη κι αν οι ιδιωτικές συνομιλίες με τα bot απενεργοποιηθούν, ο ψηφιακός βοηθός AI της Meta θα παραμένει διαθέσιμος, αλλά με προεπιλογές κατάλληλες για την ηλικία των χρηστών.

Ενισχυμένα φίλτρα προστασίας για τους εφήβους
Η εταιρεία υποστηρίζει ότι οι νέες λειτουργίες βασίζονται στα υφιστάμενα μέτρα ασφαλείας που εφαρμόζει ήδη στους λογαριασμούς εφήβων. Επιπλέον, χρησιμοποιεί τεχνολογικά σήματα AI για να εντοπίζει πιθανούς ανηλίκους που έχουν δηλώσει ψευδή ηλικία και να τους εντάσσει αυτόματα σε περιβάλλοντα με προστασία.
Ωστόσο, πρόσφατη έκθεση του Σεπτεμβρίου αποκάλυψε ότι πολλά από τα εργαλεία ασφαλείας του Instagram δεν λειτουργούν όπως πρέπει ή παραμένουν ημιτελή.
Περιορισμοί στις «επικίνδυνες» συζητήσεις
Η Meta δήλωσε ότι οι χαρακτήρες AI της είναι σχεδιασμένοι έτσι ώστε να μην συμμετέχουν σε συζητήσεις ακατάλληλες για την ηλικία, όπως θέματα αυτοτραυματισμού, αυτοκτονίας ή διατροφικών διαταραχών, όταν συνομιλούν με εφήβους.

Η Meta σε σταυροδρόμι ανάκτησης εμπιστοσύνης
Με την τεχνητή νοημοσύνη να εισχωρεί ολοένα και περισσότερο στις κοινωνικές πλατφόρμες, η Meta προσπαθεί να ισορροπήσει ανάμεσα στην καινοτομία και την προστασία των χρηστών. Οι νέες πολιτικές της ίσως αποτελέσουν ένα βήμα προς τη σωστή κατεύθυνση ωστόσο, οι αμφιβολίες για την αποτελεσματικότητά τους παραμένουν.
Υπάρχουν ισχυρές ενδείξεις ότι οι αλλαγές της Meta Platforms μπορεί να ισχύσουν στην Ελλάδα και στην Ευρώπη αλλά δεν είναι ακόμα πλήρως επιβεβαιωμένο ότι θα εφαρμοστούν ακριβώς με τον ίδιο τρόπο και ταυτόχρονα.
