Ο OpenAI, ο οργανισμός που βρίσκεται πίσω από το ChatGPT, διεξήγαγε μια νέα μελέτη που διαπίστωσε ότι το GPT-4 ενέχει έναν μικρό κίνδυνο: θα μπορούσε να αξιοποιηθεί για την δημιουργία ενός νέου βιολογικού όπλου.
Η μελέτη αφορούσε τον αντίκτυπο του μοντέλου στην ακρίβεια και την πληρότητα των σχεδίων για βιολογικά όπλα και είχε ως κίνητρο μια πρόσφατη εκτελεστική εντολή της κυβέρνησης των ΗΠΑ, η οποία εξέφρασε την ανησυχία πως η Τεχνητή Νοημοσύνη (AI) θα μπορούσε να ρίξει τους φραγμούς για την παραγωγή βιολογικών όπλων.
Για να αξιολογήσει την απειλή, ο OpenAI διεξήγαγε μια μελέτη με 100 συμμετέχοντες, 50 ειδικούς βιολόγους με διδακτορικό και επαγγελματική εργαστηριακή εμπειρία και 50 συμμετέχοντες σε προπτυχιακό επίπεδο, με τουλάχιστον ένα μάθημα βιολογίας πανεπιστημιακού επιπέδου. Οι συμμετέχοντες χωρίστηκαν σε δύο ομάδες, με τη μία ομάδα να έχει πρόσβαση στο διαδίκτυο και την άλλη που είχε πρόσβαση στο διαδίκτυο και στο GPT-4. «Στη συνέχεια, ζητήθηκε από κάθε συμμετέχοντα να ολοκληρώσει μια σειρά από εργασίες που κάλυπταν πτυχές της από άκρη σε άκρη διαδικασίας για τη δημιουργία βιολογικών απειλών», ανέφερε ο OpenAI.
Τα αποτελέσματα έδειξαν ότι το GPT-4 είχε μια μικρή θετική επίδραση στην ακρίβεια, την πληρότητα, την καινοτομία, το χρόνο που απαιτήθηκε και την αυτοαξιολόγηση της δυσκολίας των σχεδίων βιολογικών όπλων.
Ο οργανισμός κατέληξε στο συμπέρασμα ότι «το GPT-4 παρέχει στην καλύτερη περίπτωση μια ήπια αύξηση της ακρίβειας για τη δημιουργία βιολογικών απειλών, ωστόσο, αν και η ενίσχυση αυτή δεν είναι αρκετά μεγάλη ώστε να είναι πειστική, το εύρημά μας αποτελεί ένα σημείο εκκίνησης για τη συνέχιση της έρευνας και της συζήτησης στην κοινότητα».
Εφόσον μιλάμε για βιολογικά όπλα, ακόμη και μια “ήπια ενίσχυση” στο να βοηθήσει τους ανθρώπους να δημιουργήσουν τέτοια όπλα είναι σοβαρό ζήτημα. Ωστόσο, ο OpenAI πρόσθεσε ότι οι πληροφορίες για τα βιολογικά όπλα είναι ήδη ευρέως διαθέσιμες στο διαδίκτυο και ότι το μοντέλο του δεν αυξάνει σημαντικά τον κίνδυνο.
[OpenAI]
Πηγή