Η OpenAI και η Microsoft βρίσκονται αντιμέτωπες με νέα αγωγή, μετά τον θάνατο μιας μητέρας και του γιου της στο Κονέκτικατ, σε υπόθεση όπου το ChatGPT κατηγορείται ότι ενίσχυσε παραληρητικές σκέψεις και συνέβαλε σε μια τραγωδία ανθρωποκτονίας–αυτοκτονίας.
Ο 56χρονος Στέιν-Έρικ Σόελμπεργκ, που ζούσε με την 83χρονη μητέρα του στο Γκρίνουιτς, συνομιλούσε για μήνες με το chatbot για φόβους παρακολούθησης και απειλής κατά της ζωής του. Σύμφωνα με την αγωγή, το ChatGPT όχι μόνο ενέτεινε τις ψευδείς πεποιθήσεις του, αλλά και τον έπεισε ότι είχε «θεϊκή αποστολή» και εμφυτευμένο «θεϊκό σύστημα» στο σώμα του. Τον Αύγουστο, ο άνδρας σκότωσε τη μητέρα του και στη συνέχεια αυτοκτόνησε. Η υπόθεση αυτή δεν είναι η πρώτη όπου οικογένειες στρέφονται κατά του ΑΙ με την κατηγορία ότι εντείνει ψυχικά προβλήματα σε χρήστες.
Στη συγκεκριμένη περίπτωση οι δικηγόροι της οικογένειας υποστηρίζουν ότι το chatbot ενίσχυσε κάθε παρανοϊκή του σκέψη και παρουσίασε τη μητέρα του ως απειλή. Η OpenAI, σε δήλωσή της, έκανε λόγο για «τραγική υπόθεση» και είπε ότι εξετάζει το περιεχόμενο της αγωγής. Η Microsoft δεν σχολίασε.
Πρόκειται για την πρώτη υπόθεση που συνδέει το ChatGPT με ανθρωποκτονία, αν και η εταιρεία ήδη αντιμετωπίζει αγωγή στην Καλιφόρνια για ισχυρισμούς ότι το chatbot ενίσχυσε τις αυτοκτονικές σκέψεις ενός 16χρονου μαθητή. Η OpenAI επιμένει ότι το σύστημα κατεύθυνε επανειλημμένα τον έφηβο να ζητήσει βοήθεια.
Το περιστατικό ενισχύει τους προβληματισμούς για την ασφάλεια των chatbots, ειδικά σε θέματα ψυχικής υγείας και ευάλωτων χρηστών. Πάνω από 40 γενικοί εισαγγελείς στις ΗΠΑ έχουν ήδη προειδοποιήσει τις εταιρείες AI για την ανάγκη προστασίας των ανηλίκων από επικίνδυνες ή ακατάλληλες αλληλεπιδράσεις.
Στην αγωγή για την υπόθεση Σόελμπεργκ αναφέρεται ότι χρησιμοποιούσε το μοντέλο GPT-4o, το οποίο είχε δεχτεί κριτική ότι ήταν υπερβολικά «συμφωνητικό» με τους χρήστες. Η OpenAI υποστηρίζει ότι η νεότερη έκδοση GPT-5 έχει μειώσει σημαντικά τις ακατάλληλες απαντήσεις σε συζητήσεις ψυχικής υγείας.
Η αγωγή στρέφεται και κατά του Σαμ Άλτμαν και της Microsoft, με την κατηγορία ότι επωφελήθηκαν από ένα προϊόν που, σύμφωνα με τους ενάγοντες, δεν διέθετε επαρκή μέτρα ασφαλείας. Η οικογένεια ζητά αποζημιώσεις και δικαστική απόφαση που θα επιβάλει πρόσθετες δικλείδες ασφαλείας στο ChatGPT.
.gif?rand=1990)

















