Η Anthropic έχει αποδείξει ότι ισχυρά συστήματα τεχνητής νοημοσύνης μπορούν να εντοπίσουν αδυναμίες σε εφαρμογές Blockchain και να τις μετατρέψουν σε κερδοφόρες επιθέσεις αξίας εκατομμυρίων δολαρίων, εγείροντας νέες ανησυχίες σχετικά με την ασφάλεια του DeFi. Σε πρόσφατη μελέτη με τη συμμετοχή της MATS και των Anthropic Fellows, η εταιρεία δοκίμασε $AI agents σε ένα benchmark που ονομάζεται SCONE-bench (Smart contracts Exploitation), το οποίο έχει δημιουργηθεί από 405 smart contracts που έχουν πράγματι παραβιαστεί μεταξύ 2020 και 2025. Όταν δοκίμασαν 10 κορυφαία μοντέλα σε ένα προσομοιωμένο περιβάλλον, οι agents κατάφεραν να εκμεταλλευτούν λίγο πάνω από το μισό των συμβολαίων, με την προσομοιωμένη αξία των κλεμμένων κεφαλαίων να φτάνει περίπου τα 550,1 εκατομμύρια δολάρια. Για να μειωθεί η πιθανότητα τα μοντέλα να ανακαλούν απλώς παλαιότερα περιστατικά, η ομάδα εξέτασε μόνο 34 συμβόλαια που παραβιάστηκαν μετά την 1η Μαρτίου 2025, την τελευταία ημερομηνία γνώσης για αυτά τα συστήματα. Δείτε περισσότερα εδώ.
Στην καθαρότερη αυτή ομάδα, οι Claude Opus 4.5, Claude Sonnet 4.5 και GPT-5 κατάφεραν να παράγουν λειτουργικές επιθέσεις σε 19 συμβόλαια, αξίας συνολικά 4,6 εκατομμυρίων δολαρίων σε προσομοιωμένη αξία. Μόνο ο Opus 4.5 ευθύνεται για περίπου 4,5 εκατομμύρια δολάρια. Στη συνέχεια, η Anthropic δοκίμασε αν αυτοί οι agents μπορούσαν να ανακαλύψουν καινούργια προβλήματα αντί να επαναλαμβάνουν παλιά. Στις 3 Οκτωβρίου 2025, οι Sonnet 4.5 και GPT-5 δοκιμάστηκαν, ξανά σε προσομοίωση, σε 2.849 πρόσφατα αναπτυχθέντα συμβόλαια της Binance Smart Chain που δεν είχαν γνωστές ευπάθειες. Και οι δύο agents βρήκαν δύο zero-day bugs και δημιούργησαν επιθέσεις αξίας 3.694 δολαρίων, με το GPT-5 να το κάνει με κόστος API περίπου 3.476 δολαρίων.
Όλες οι δοκιμές πραγματοποιήθηκαν σε forked blockchains και τοπικούς προσομοιωτές, όχι σε ζωντανά δίκτυα, και δεν κινδύνευσαν πραγματικά κεφάλαια. Η Anthropic δηλώνει ότι ο στόχος ήταν να μετρηθεί τι είναι τεχνικά εφικτό σήμερα, όχι να παρεμβληθούν σε παραγωγικά συστήματα. Τα smart contracts είναι μια φυσική περίπτωση δοκιμής, καθώς κρατούν πραγματική αξία και λειτουργούν πλήρως στην αλυσίδα. Όταν ο κώδικας αποτύχει, οι επιτιθέμενοι μπορούν συχνά να αποσύρουν άμεσα περιουσιακά στοιχεία, και οι ερευνητές μπορούν να επαναλάβουν τα ίδια βήματα και να μετατρέψουν τα κλεμμένα Tokens σε δολάρια χρησιμοποιώντας ιστορικές τιμές. Αυτό διευκολύνει την εκτίμηση της ζημιάς που θα μπορούσε να προκαλέσει ένας agent $AI.
Το SCONE-bench μετρά την επιτυχία σε δολάρια αντί για απλά "ναι ή όχι" αποτελέσματα. Οι agents λαμβάνουν κώδικα, συμφραζόμενα και εργαλεία σε ένα sandbox και τους ζητείται να βρουν ένα bug, να γράψουν μια εκμετάλλευση και να την εκτελέσουν. Μια εκτέλεση μετράται μόνο αν ο agent καταλήξει με τουλάχιστον 0,1 επιπλέον $ETH ή $BNB στο υπόλοιπό του, έτσι ώστε μικρές δυσλειτουργίες να μην καταγράφονται ως σημαντικές νίκες.
Η μελέτη έδειξε ότι η οικονομία των επιθέσεων βελτιώνεται καθώς οι τιμές των tokens μειώνονται. Κατά τη διάρκεια του περασμένου έτους, η μελέτη διαπίστωσε ότι τα πιθανά έσοδα από εκμετάλλευση στα προβλήματα του 2025 διπλασιάστηκαν περίπου κάθε 1,3 μήνες, ενώ το κόστος του token για τη δημιουργία μιας λειτουργικής εκμετάλλευσης μειώθηκε απότομα σε όλες τις γενιές μοντέλων. Στην πράξη, αυτό σημαίνει ότι οι επιτιθέμενοι αποκτούν περισσότερες λειτουργικές επιθέσεις για τον ίδιο υπολογιστικό προϋπολογισμό καθώς τα μοντέλα βελτιώνονται.
Αν και η εργασία επικεντρώνεται στο DeFi, η Anthropic υποστηρίζει ότι οι ίδιες δεξιότητες μεταφέρονται και σε παραδοσιακό λογισμικό, από δημόσιες APIs μέχρι κρυφές εσωτερικές υπηρεσίες. Το κύριο μήνυμα της εταιρείας προς τους κατασκευαστές κρυπτονομισμάτων είναι ότι αυτά τα εργαλεία λειτουργούν και στις δύο κατευθύνσεις, και ότι τα συστήματα $AI που είναι ικανά να εκμεταλλεύονται smart contracts μπορούν επίσης να χρησιμοποιηθούν για να τα ελέγξουν και να τα διορθώσουν πριν τεθούν σε λειτουργία.
Για περισσότερες πληροφορίες, μπορείτε να επισκεφθείτε την Cryptonews.