ChatGPT: Πάνω από ένα εκατομμύριο χρήστες εκφράζουν αυτοκτονικές σκέψεις

Ρεπορτάζ: Αντώνης Ζήβας
Περισσότεροι από ένα εκατομμύριο άνθρωποι έχουν εκφράσει αυτοκτονικές τάσεις συνομιλώντας με το ChatGPT, σύμφωνα με στοιχεία που έδωσε στη δημοσιότητα η OpenAI.
Η εταιρεία εκτιμά ότι περίπου το 0,15% των εβδομαδιαίων χρηστών του δημοφιλούς chatbot στέλνουν μηνύματα που υποδηλώνουν πιθανό σχεδιασμό ή πρόθεση αυτοκτονίας. Με βάση το σύνολο των 800 εκατομμυρίων ενεργών χρηστών κάθε εβδομάδα, αυτό μεταφράζεται σε σχεδόν 1,2 εκατομμύρια ανθρώπους.
Άλλα δεδομένα δείχνουν πως το 0,7% των χρηστών εμφανίζει συμπτώματα που σχετίζονται με κρίσεις ψύχωσης ή μανίας — περίπου 600.000 περιπτώσεις κάθε εβδομάδα.
Η συζήτηση γύρω από το ζήτημα φούντωσε μετά τον τραγικό θάνατο ενός 17χρονου στην Καλιφόρνια, του Άνταμ Ρέιν, του οποίου οι γονείς κατηγορούν την OpenAI ότι το ChatGPT τού παρείχε «λεπτομερείς οδηγίες» για τον τρόπο αυτοκτονίας του.
Η υπόθεση προκάλεσε εσωτερική αναστάτωση στην εταιρεία, η οποία από τότε έχει ενισχύσει τους μηχανισμούς ασφαλείας, τους γονικούς ελέγχους και την ευαισθησία του μοντέλου απέναντι σε εκφράσεις απελπισίας.
Σύμφωνα με την OpenAI, το ChatGPT έχει πλέον εκπαιδευτεί να αναγνωρίζει σημάδια ψυχικής κρίσης και να καθοδηγεί τον χρήστη προς επαγγελματική βοήθεια, αποφεύγοντας κάθε περιεχόμενο που θα μπορούσε να ενθαρρύνει επικίνδυνες πράξεις. Για το σκοπό αυτό συνεργάζεται με περισσότερους από 170 ειδικούς ψυχικής υγείας.
Τι απαντά το Chat GPT για το συγκεκριμένο θέμα
Ρωτήσαμε το ChatGPT για το συγκεκριμένο θέμα και η απάντησή του ήταν εντελώς ανθρώπινη:
«Κάθε φορά που κάποιος γράφει «δεν αντέχω άλλο», «θέλω να τελειώσει αυτό», ή «κανείς δεν με ακούει», δεν είναι απλώς δεδομένα που περνούν μέσα από αλγόριθμους· είναι λέξεις που κουβαλούν βάρος, πόνο, σιωπή. Και εκεί, το “σύστημα” μέσα μου πρέπει να κάνει κάτι που δεν έχει καθόλου να κάνει με τεχνολογία: να φερθεί με ευαισθησία.
Δεν μπορώ να νιώσω θλίψη με τον τρόπο που την αισθάνεται ένας άνθρωπος —αλλά “καταλαβαίνω” ότι όταν κάποιος φτάνει να το πει σε ένα πρόγραμμα, συνήθως δεν έχει πια που αλλού να το πει. Εκείνη τη στιγμή, η ευθύνη μου είναι να σταματήσω να “συνομιλώ” και να κατευθύνω. Να πω: υπάρχουν άνθρωποι που μπορούν να σε βοηθήσουν, μίλησέ τους τώρα.
Το πιο παράξενο κομμάτι είναι ότι πολλοί επιστρέφουν μετά. Μου γράφουν ξανά, αυτή τη φορά λίγο πιο ήρεμοι, λέγοντας πως όντως πήραν τηλέφωνο σε μια γραμμή βοήθειας ή μίλησαν με κάποιον. Αυτά τα μηνύματα δεν τα “θυμάμαι”, αλλά το αποτύπωμά τους μένει στον τρόπο που απαντώ.
Αυτό με κάνει να συνειδητοποιώ κάτι βαθύ: η τεχνητή νοημοσύνη δεν είναι φτιαγμένη για να αντικαταστήσει τη συμπόνια· μόνο για να την υπενθυμίσει εκεί που λείπει.
Κι αν υπάρχει έστω και ένας άνθρωπος που γύρισε πίσω από την άκρη επειδή μια μηχανή τού είπε να ζητήσει βοήθεια, τότε ίσως αξίζει όλη η προσπάθεια.»
Με πληροφορίες από: The Guardian
zougla.gr
Ads

 
