
Μπορεί το AI να δημιουργήσει βιολογικά όπλα εναντίον της ανθρωπότητας; «Δεν είναι πια επιστημονική φαντασία» προειδοποιεί κορυφαίος επιστήμονας
Η ραγδαία ανάπτυξη της τεχνητής νοημοσύνης έχει φέρει εντυπωσιακές δυνατότητες αλλά και ανησυχίες. Ένα από τα πιο σοβαρά ερωτήματα είναι αν θα μπορούσε κάποτε να χρησιμοποιηθεί για τη δημιουργία βιοόπλων. Οι ειδικοί τοποθετούνται και εξηγούν τι πρέπει πραγματικά να φοβόμαστε με την τεχνητή νοημοσύνη.
Βιολογικά όπλα εναντίον της ανθρωπότητας με τη συμμετοχή της τεχνητής νοημοσύνης – Είναι εφικτό;
Σύμφωνα με πρόσφατη μελέτη που δημοσιεύθηκε στο επιστημονικό περιοδικό Proceedings of the National Academy of Sciences (PNAS), οι αφηγήσεις σχετικά με την «υπαρξιακή απειλή» της τεχνητής νοημοσύνης βασίζονται κυρίως σε θεωρητικές ανησυχίες για μελλοντικές εξελίξεις, ενώ οι άμεσοι κίνδυνοι που προκαλεί η AI σήμερα είναι πιθανότεροι και πιο τεκμηριωμένοι εμπειρικά.
Η μελέτη καταλήγει ότι οι άνθρωποι τείνουν να ανησυχούν περισσότερο για τις τρέχουσες κοινωνικές και ηθικές συνέπειες της τεχνητής νοημοσύνης, ενώ το σενάριο μιας μαζικής καταστροφής παραμένει περισσότερο αντικείμενο επιστημονικής και πολιτικής διαμάχης, παρά τεκμηριωμένος κίνδυνος.
Ωστόσο, η τεχνητή νοημοσύνη χρησιμοποιείται ήδη για το σχεδιασμό πρωτεϊνών και ακόμη και ιών, προκαλώντας φόβους ότι κάποια στιγμή στο μέλλον μπορεί να χρησιμοποιηθεί για να παρακάμψει τους ελέγχους για τα βιολογικά όπλα.
Ανάλυση του FBI για σπόρους ρίκινου που χρησιμοποιήθηκαν για την παρασκευή του εξαιρετικά δηλητηριώδους παράγοντα Ρικίνη.
Η ρικίνη, μια πρωτεΐνη που δεσμεύει υδατάνθρακες, που παράγεται στους σπόρους του φυτού ρίκινος είναι ένα εξαιρετικά ισχυρό τοξικό. Μια δόση καθαρής ρικίνης σε μορφή σκόνης, στο μέγεθος λίγων κόκκων επιτραπέζιου αλατιού, μπορεί να σκοτώσει έναν ενήλικο άνθρωπο.
Η Τεχνητή Νοημοσύνη (AI) θα μπορούσε να χρησιμοποιηθεί για την παρασκευή της τοξίνης ρικίνης, αλλά μπορεί επίσης να ληφθεί από σπόρους ρίκινου.
Η τεχνητή νοημοσύνη υπόσχεται να μεταμορφώσει τη βιολογία, επιτρέποντάς μας να σχεδιάζουμε καλύτερα φάρμακα, εμβόλια και ακόμη και συνθετικούς οργανισμούς για σκοπούς όπως η κατανάλωση πλαστικών αποβλήτων.
Αλλά κάποιοι φοβούνται ότι μπορεί επίσης να χρησιμοποιηθεί για πιο σκοτεινούς σκοπούς, όπως η δημιουργία βιολογικών όπλων που δεν θα ανιχνεύονταν από συμβατικές μεθόδους μέχρι να είναι πολύ αργά.
Πόσο πρέπει να ανησυχούμε;
«Οι εξελίξεις στην AI ενισχύουν τις ανακαλύψεις στη βιολογία και την ιατρική», αναφέρει ο Eric Horvitz, επικεφαλής επιστημονικός υπεύθυνος της Microsoft. «Με τη νέα δύναμη έρχεται και η ευθύνη για επαγρύπνηση».
Η ομάδα του δημοσίευσε μια μελέτη που εξετάζει το κατά πόσο η AI θα μπορούσε να σχεδιάσει πρωτεΐνες που λειτουργούν όπως γνωστές επικίνδυνες πρωτεΐνες, αλλά είναι αρκετά διαφορετικές ώστε να μην αναγνωρίζονται ως επικίνδυνες. Η ομάδα δεν αποκάλυψε ποιες πρωτεΐνες επιχείρησε να επανασχεδιάσει, μέρη της μελέτης δεν δημοσιεύθηκαν, αλλά πιθανότατα περιλάμβαναν τοξίνες όπως η ρικίνη, που χρησιμοποιήθηκε σε μια δολοφονία το 1978 και η βοτουλινική τοξίνη (botulinum), η ισχυρή νευροτοξίνη που είναι περισσότερο γνωστή ως Botox.
Για να παραχθεί μαζικά μια πρωτεΐνη όπως η botulinum, χρειάζεται η «συνταγή», δηλαδή το DNA που την κωδικοποιεί. Όταν οι βιολόγοι χρειάζονται ένα συγκεκριμένο τμήμα DNA, συνήθως το παραγγέλνουν από εταιρείες που ειδικεύονται στην κατασκευή οποιουδήποτε επιθυμητού τμήματος.
Λόγω ανησυχιών ότι επίδοξοι βιοτρομοκράτες θα μπορούσαν να παραγγείλουν τις συνταγές για την παρασκευή βιολογικών όπλων με αυτόν τον τρόπο, ορισμένες εταιρείες σύνθεσης DNA πραγματοποιούν εθελοντικά ελέγχους στις παραγγελίες για να διαπιστώσουν αν κάποιος προσπαθεί να κατασκευάσει κάτι επικίνδυνο. Οι πρωτεΐνες είναι ακολουθίες αμινοξέων, και οι έλεγχοι αυτοί συγκρίνουν την ακολουθία των αμινοξέων με γνωστές «ακολουθίες ανησυχίας», δηλαδή πιθανών βιοόπλων.
Όμως με την AI, είναι θεωρητικά δυνατό να σχεδιαστεί μια παραλλαγή μιας πρωτεΐνης που έχει διαφορετική ακολουθία αμινοξέων αλλά εξακολουθεί να έχει την ίδια λειτουργία. Ο Horvitz και οι συνεργάτες του προσπάθησαν αυτό με 72 δυνητικά επικίνδυνες πρωτεΐνες και έδειξαν ότι οι υπάρχουσες μέθοδοι ελέγχου συχνά αποτυγχάνουν να εντοπίσουν αυτές τις εναλλακτικές παραλλαγές.
Αυτό όμως δεν είναι τόσο τρομακτικό όσο ακούγεται. Πρώτον, η ομάδα δεν δημιούργησε πραγματικά τις επανασχεδιασμένες πρωτεΐνες, για προφανείς λόγους. Όμως, σε μια ξεχωριστή μελέτη νωρίτερα φέτος, δοκίμασαν επανασχεδιασμένες εκδοχές ακίνδυνων πρωτεϊνών και ουσιαστικά διαπίστωσαν ότι δεν λειτούργησαν.
Δεύτερον, αν και έχουν υπάρξει προσπάθειες βιοτρομοκρατικών επιθέσεων, αν και πολύ λίγες, υπάρχουν ελάχιστοι λόγοι να πιστεύουμε ότι αυτό οφείλεται σε αποτυχία του συστήματος ελέγχου. Ήδη υπάρχουν πολλοί τρόποι για να παρακαμφθεί, χωρίς να χρειαστεί να καταφύγει κανείς στον επανασχεδιασμό μέσω AI, για παράδειγμα, η ρικίνη μπορεί να ληφθεί από φυτά.
Η συγκεκριμένη μελέτη είναι το ισοδύναμο της προειδοποίησης ότι μια τράπεζα θα μπορούσε να ληστέψει με ένα υπερσύγχρονο σχέδιο τύπου Mission Impossible, όταν στην πραγματικότητα η πόρτα του θησαυροφυλακίου είναι ήδη ξεκλείδωτη.
Και τελευταίο αλλά εξίσου σημαντικό, εκτός των κρατικών φορέων, κανένας βιοτρομοκράτης δεν έχει καταφέρει να σκοτώσει κάποιον με πρωτεϊνικά βιοόπλα. Η αίρεση Aum Shinrikyo στην Ιαπωνία προσπάθησε να σκοτώσει με botulinum, αλλά πέτυχε μόνο με χημικούς παράγοντες. Τα γράμματα με ρικίνη που εστάλησαν στον Λευκό Οίκο δεν σκότωσαν κανέναν. Βάσει του αριθμού θυμάτων, τα όπλα και οι εκρηκτικοί μηχανισμοί είναι κατά πολύ πιο επικίνδυνα από τις βιοτοξίνες.
Η τοποθέτηση του «νονού» του AI
Ο Geoffrey Hinton συχνά αποκαλείται «νονός της τεχνητής νοημοσύνης» λόγω της καθοριστικής του συνεισφοράς στην ανάπτυξη των τεχνητών νευρωνικών δικτύων και του deep learning. Ήταν ο βασικός επιστήμονας πίσω από την εισαγωγή του αλγορίθμου που επέτρεψε την εκπαίδευση των νευρωνικών δικτύων και κατέστησε δυνατή τη σημερινή ανάπτυξη της AI, ενώ παραμένει πρωταγωνιστής στη δημιουργία μοντέλων όπως οι Boltzmann Machines και τα Capsule Networks.
Το 2024 τιμήθηκε με το Νόμπελ Φυσικής για τις θεμελιώδεις του ανακαλύψεις που επέτρεψαν τη μηχανική μάθηση με τεχνητά νευρωνικά δίκτυα, μαζί με τον John Hopfield. Ο Hinton θεωρείται κεντρική φυσιογνωμία για τη διαδικασία που επιτρέπει σε μηχανές να μαθαίνουν από δεδομένα και να εκτελούν εργασίες πολύπλοκες ακόμα και για τον άνθρωπο, όπως η αναγνώριση εικόνας και φωνής.
Σε δηλώσεις του τόνισε πώς η AI δεν είναι πλέον «επιστημονική φαντασία» και ότι όσο καλό μπορεί να κάνει με την αύξηση της παραγωγικότητας, αν πέσει στα λάθος χέρια μπορεί να χρησιμοποιηθεί εναντίον των ανθρώπων με τη δημιουργία ιών αλλά και ψηφιακών οντοτήτων που θα είναι πολύ πιο έξυπνα από εμάς και θα αυτενεργούν.
Πηγή: oloygeia.gr