Η τεχνολογία πίσω από το ChatGPT μπορεί να εφαρμοστεί για τη δημιουργία εκστρατειών παραπληροφόρησης με δυνητικά πολύ μεγαλύτερη αποτελεσματικότητα από ό,τι αν τα κείμενα γράφονταν από ανθρώπους. Οι δυνατότητές του είναι τεράστιες, αλλά εγείρει επίσης ηθικές ανησυχίες. Αυτή είναι η αίσθηση που μοιράζονται οι περισσότεροι ειδικοί της τεχνολογίας.

ChatGPT-psemata

Μια ομάδα 697 ατόμων διάβασε 220 tweets γραμμένα από άλλους ανθρώπους και από το μοντέλο τεχνητής νοημοσύνης GPT-3, τον πρόδρομο της τρέχουσας παγκόσμιας επιτυχίας ChatGPT. Πρώτα, έπρεπε να μαντέψουν ποια tweets ήταν αληθινά και ποια ήταν ψευδή και στη συνέχεια να αποφασίσουν αν γράφτηκαν από άτομο ή μηχάνημα. Το GPT-3 κέρδισε και στις δύο περιπτώσεις: έλεγε ψέματα καλύτερα από τους ανθρώπους και επίσης έλεγε ψέματα για να προσποιηθεί ότι ήταν άνθρωπος που έγραφε τα tweets. «Το GPT-3 μπορεί να μας ενημερώσει και να μας παραπληροφορήσει καλύτερα», καταλήγουν οι συγγραφείς μιας νέας μελέτης που δημοσιεύτηκε στο περιοδικό Science Advance.

H ήττα της ανθρωπότητας στο διαδίκτυο από το ChatGPT

Για να γίνουν τα πράγματα χειρότερα, η προοδευτική εμφάνιση νεότερων μοντέλων και άλλων προσεγγίσεων μπορεί ακόμη και να βελτιώσει την ικανότητα της τεχνητής νοημοσύνης να υποκαθιστά τους ανθρώπους. Το επίπεδο γραφής του ChatGPT-4, της βελτιωμένης έκδοσης του GPT-3, είναι πρακτικά τέλειο. Η Mary Shelley έγραψε το Frankenstein πριν από περισσότερα από 200 χρόνια και η ανθρωπότητα προσπαθεί εδώ και δεκαετίες να αναπτύξει τεχνητή νοημοσύνη στην πραγματική ζωή.

Οι χρήστες του Διαδικτύου σύντομα δεν θα μπορούν να διακρίνουν μεταξύ του τι έχει γραφτεί από έναν άνθρωπο και αυτό που έχει γραφτεί από μια μηχανή. Η μελέτη έχει άλλους περιορισμούς που μπορεί να αλλάξουν κάπως τις αντιλήψεις κατά την ανάγνωση ψεύτικων tweets. Οι περισσότεροι συμμετέχοντες ήταν άνω των 42 ετών, η μελέτη έγινε μόνο στα Αγγλικά και δεν έλαβε υπόψη πληροφορίες σχετικά με τα συμφραζόμενα σχετικά με τα tweets, όπως το προφίλ και τα προηγούμενα tweets.