Νέα εκπαίδευση για τα chatbots της Character.AI ώστε να μην συνομιλούν με έφηβους

by Manos Kavvalos

Με μια νέα ανακοίνωσή της, η υπηρεσία chatbot Character.AI αναφέρει ότι σύντομα θα ξεκινήσει γονικό έλεγχο για τους έφηβους χρήστες και περιγράφει τα μέτρα ασφαλείας που έχει λάβει τους τελευταίους μήνες. Σε αυτά συμπεριλαμβάνεται ένα ξεχωριστό, μεγάλο γλωσσικό μοντέλο (LLM) για χρήστες κάτω των 18 ετών. Η ανακοίνωση έρχεται μετά από σχετικά δημοσιεύματα στα μέσα ενημέρωσης και δύο αγωγές που υποστηρίζουν ότι η υπηρεσία συνέβαλε σε αυτοτραυματισμούς και αυτοκτονίες.

Σε δελτίο τύπου, η Character.AI ανέφερε ότι, κατά τη διάρκεια του τελευταίου μήνα, ανέπτυξε δύο ξεχωριστές εκδόσεις του μοντέλου της: μία για ενήλικες και μία για εφήβους. Το LLM για εφήβους έχει σχεδιαστεί για να θέτει «πιο συντηρητικά» όρια στον τρόπο με τον οποίο τα bots μπορούν να ανταποκριθούν, «ιδιαίτερα όταν πρόκειται για ρομαντικό περιεχόμενο». Αυτό περιλαμβάνει πιο ενεργό μπλοκάρισμα της παραγωγής περιεχομένου που θα μπορούσε να θεωρηθεί ως «ευαίσθητο ή υποβλητικό», αλλά και την προσπάθεια καλύτερης ανίχνευσης και μπλοκαρίσματος των προτροπών των χρηστών που έχουν ως στόχο να προκαλέσουν ακατάλληλο περιεχόμενο. Εάν το σύστημα ανιχνεύσει «γλώσσα που παραπέμπει σε αυτοκτονία ή αυτοτραυματισμό», ένα αναδυόμενο παράθυρο θα κατευθύνει τους χρήστες στην Εθνική Γραμμή Ζωής για την Πρόληψη της Αυτοκτονίας.

Οι ανήλικοι θα εμποδίζονται επίσης από την επεξεργασία των απαντήσεων των bots – μια επιλογή που επιτρέπει στους χρήστες να ξαναγράψουν τις συζητήσεις για να προσθέσουν περιεχόμενο που η Character.AI θα μπορούσε σε διαφορετική περίπτωση να αποκλείσει.

Πέρα από αυτές τις αλλαγές, η Character.AI λέει ότι βρίσκεται «στη διαδικασία» προσθήκης χαρακτηριστικών που αντιμετωπίζουν τις ανησυχίες σχετικά με τον εθισμό και τη σύγχυση σχετικά με το αν τα bots είναι άνθρωποι, καταγγελίες που διατυπώθηκαν στις αγωγές. Μια ειδοποίηση θα εμφανίζεται όταν οι χρήστες έχουν περάσει μια ωριαία συνεδρία με τα bots, όπως επίσης και μια παλιά δήλωση αποποίησης ευθύνης ότι «όλα όσα λένε οι χαρακτήρες είναι κατασκευασμένα» αντικαθίσταται με πιο λεπτομερή περιγραφή. Για τα bots που περιλαμβάνουν περιγραφές όπως «θεραπευτής» ή «γιατρός», μια πρόσθετη σημείωση θα προειδοποιεί ότι δεν μπορούν να προσφέρουν επαγγελματικές συμβουλές.

Οι επιλογές γονικού ελέγχου θα προστεθούν το πρώτο τρίμηνο του 2025, λέει η Character.AI, και θα ενημερώνουν τους γονείς για το πόσο χρόνο ξοδεύει ένα παιδί στο Character.AI και με ποια bots αλληλεπιδρά συχνότερα. Όλες οι αλλαγές γίνονται σε συνεργασία με «αρκετούς ειδικούς σε θέματα ασφάλειας εφήβων στο διαδίκτυο», συμπεριλαμβανομένης της οργάνωσης ConnectSafely.

Μπορείς να δεις ακόμη