Παρουσιάζεται ο αναγνώστης κώδικα με τεχνητή νοημοσύνη της Etherscan

Η Etherscan, η πλατφόρμα εξερεύνησης και ανάλυσης μπλοκ Ethereum, παρουσίασε ένα νέο εργαλείο με την ονομασία “Code Reader” που αξιοποιεί την τεχνητή νοημοσύνη (AI) για την ανάκτηση και ερμηνεία του πηγαίου κώδικα συγκεκριμένων διευθύνσεων συμβολαίων. Αξιοποιώντας το μεγάλο γλωσσικό μοντέλο της OpenAI, το Code Reader παράγει απαντήσεις σε προτροπές του χρήστη, προσφέροντας πληροφορίες για τα αρχεία του πηγαίου κώδικα του συμβολαίου. Για τη χρήση του εργαλείου, οι χρήστες χρειάζονται ένα έγκυρο κλειδί API του OpenAI και επαρκή όρια χρήσης, με τη διαβεβαίωση ότι το εργαλείο δεν αποθηκεύει κλειδιά API.

Οι λειτουργίες του Code Reader είναι ποικίλες και περιλαμβάνουν την απόκτηση βαθύτερης κατανόησης του κώδικα του συμβολαίου μέσω επεξηγήσεων που δημιουργούνται από τεχνητή νοημοσύνη, την απόκτηση ολοκληρωμένων καταλόγων των λειτουργιών του έξυπνου συμβολαίου που σχετίζονται με δεδομένα του Ethereum και τη διερεύνηση του τρόπου με τον οποίο το υποκείμενο συμβόλαιο αλληλεπιδρά με αποκεντρωμένες εφαρμογές. Οι χρήστες μπορούν να επιλέξουν συγκεκριμένα αρχεία πηγαίου κώδικα για να τα διαβάσουν και ακόμη και να τροποποιήσουν τον πηγαίο κώδικα απευθείας στο περιβάλλον εργασίας χρήστη πριν τον μοιραστούν με την ΤΝ.

Ενώ οι τεχνολογίες ΤΝ συνεχίζουν να ανθίζουν, ορισμένοι ειδικοί προειδοποιούν σχετικά με τη σκοπιμότητα των σημερινών μοντέλων ΤΝ. Μια έκθεση της εταιρείας επιχειρηματικών κεφαλαίων της Σιγκαπούρης Foresight Ventures υπογραμμίζει ότι οι πόροι υπολογιστικής ισχύος θα αποτελέσουν κρίσιμο παράγοντα την επόμενη δεκαετία. Παρόλο που υπάρχει αυξανόμενη ζήτηση για την εκπαίδευση μεγάλων μοντέλων ΤΝ σε αποκεντρωμένα δίκτυα κατανεμημένης υπολογιστικής ισχύος, τα τρέχοντα πρωτότυπα αντιμετωπίζουν σημαντικές προκλήσεις, όπως ο πολύπλοκος συγχρονισμός δεδομένων, η βελτιστοποίηση του δικτύου και οι ανησυχίες για την ιδιωτικότητα και την ασφάλεια των δεδομένων.

Η έκθεση αναφέρει ένα παράδειγμα εκπαίδευσης ενός μεγάλου μοντέλου με 175 δισεκατομμύρια παραμέτρους, το οποίο θα απαιτούσε περίπου 700 gigabytes χρησιμοποιώντας αναπαράσταση κινητής υποδιαστολής μονής ακρίβειας. Ωστόσο, η κατανεμημένη εκπαίδευση απαιτεί συχνή μετάδοση και ενημέρωση των παραμέτρων μεταξύ των υπολογιστικών κόμβων. Αν συμμετείχαν 100 υπολογιστικοί κόμβοι, με κάθε κόμβο να ενημερώνει όλες τις παραμέτρους σε κάθε βήμα μονάδας, το μοντέλο θα απαιτούσε τη μετάδοση 70 terabytes δεδομένων ανά δευτερόλεπτο, ξεπερνώντας τη χωρητικότητα των περισσότερων δικτύων.

Υπό το πρίσμα αυτών των προκλήσεων, η έκθεση τονίζει ότι σε πολλά σενάρια, τα μικρότερα μοντέλα ΤΝ παραμένουν μια πιο εφικτή επιλογή και δεν πρέπει να αγνοούνται εν μέσω της διαφημιστικής εκστρατείας που περιβάλλει τα μεγάλα μοντέλα. Καθώς το τοπίο της τεχνητής νοημοσύνης συνεχίζει να εξελίσσεται, οι εξελίξεις στην υπολογιστική ισχύ και τις δυνατότητες των δικτύων θα διαδραματίσουν καθοριστικό ρόλο στην αξιοποίηση του πλήρους δυναμικού των τεχνολογιών τεχνητής νοημοσύνης.

Για περισσότερα ενημερωμένα νέα, βρείτε μας στο Twitter και στις Ειδήσεις ή εγγραφείτε στο κανάλι μας στο YouTube .

Ποια είναι η γνώμη σας για το συγκεκριμένο θέμα; Αφήστε μας το σχόλιο σας από κάτω! Πάντα μας ενδιαφέρει η γνώμη σας!

Αρθρογράφος: Dimitrios Alexandridis

Leave a Reply

Your email address will not be published. Required fields are marked *

Προτεινόμενα άρθρα:

Ετικέτες:

Μοιράσου τη Δημοσίευση: