Τελευταία Νέα
Τα Παράξενα

Μία... περίεργη και επικίνδυνη αποκάλυψη για την τεχνητή νοημοσύνη - Δεν καταλαβαίνει τη λέξη «Όχι»

Μία... περίεργη και επικίνδυνη αποκάλυψη για την τεχνητή νοημοσύνη - Δεν καταλαβαίνει τη λέξη «Όχι»
Το κενό αυτό θα μπορούσε να έχει δραματικές συνέπειες σε κρίσιμους τομείς όπως η υγειονομική περίθαλψη
Έρευνα που διεξήχθη από το Ινστιτούτο Τεχνολογίας της Μασαχουσέτης αποκαλύπτει ένα σημαντικό ελάττωμα της τεχνητής νοημοσύνης (AI): την αδυναμία της να κατανοήσει σωστά την άρνηση.
Το κενό αυτό θα μπορούσε να έχει δραματικές συνέπειες σε κρίσιμους τομείς όπως η υγειονομική περίθαλψη.
H ερευνητική ομάδα με επικεφαλής τον Kumail Alhamoud, διδακτορικό φοιτητή στο MIT, διεξήγαγε αυτή τη μελέτη σε συνεργασία με το OpenAI και το Πανεπιστήμιο της Οξφόρδης.
Το έργο τους αποκαλύπτει ένα ανησυχητικό ελάττωμα: τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης αποτυγχάνουν συστηματικά όταν έρχονται αντιμέτωπα με αρνήσεις. Γνωστά μοντέλα όπως το ChatGPT, το Gemini και το Llama ευνοούν συνεχώς τους θετικούς συσχετισμούς, αγνοώντας σαφώς σαφείς όρους άρνησης.
Ο ιατρικός τομέας απεικονίζει τέλεια αυτό το ζήτημα.
Όταν ένας ακτινολόγος γράφει μια έκθεση που αναφέρει "κανένα κάταγμα" ή "καμία διεύρυνση", η ΤΝ κινδυνεύει να παρερμηνεύσει αυτές τις ζωτικής σημασίας πληροφορίες.
Αυτή η σύγχυση θα μπορούσε να οδηγήσει σε διαγνωστικά σφάλματα με δυνητικά θανατηφόρες συνέπειες για τους ασθενείς.
Η κατάσταση επιδεινώνεται με τα μοντέλα όρασης-γλώσσας, αυτά τα υβριδικά συστήματα που αναλύουν εικόνες και κείμενα μαζί. Αυτές οι τεχνολογίες παρουσιάζουν ακόμη μεγαλύτερη προκατάληψη προς τους θετικούς όρους.
Συχνά αποτυγχάνουν να διαφοροποιήσουν μεταξύ θετικών και αρνητικών περιγραφών, αυξάνοντας τον κίνδυνο σφαλμάτων στην ιατρική απεικόνιση με τεχνητή νοημοσύνη.

Πρόβλημα εκπαίδευσης, όχι πρόβλημα δεδομένων

Σύμφωνα με το Cointribune, o Franklin Delehelle, ερευνητής μηχανικός στην Lagrange Labs, εξηγεί ότι η καρδιά του προβλήματος δεν έγκειται στην έλλειψη δεδομένων.
Τα τρέχοντα μοντέλα υπερέχουν στην αναπαραγωγή απαντήσεων παρόμοιων με αυτές της εκπαίδευσής τους, αλλά δυσκολεύονται να δημιουργήσουν πραγματικά νέες απαντήσεις.
Ο Kian Katanforoosh, καθηγητής στο Στάνφορντ, εξηγεί ότι τα γλωσσικά μοντέλα λειτουργούν με συνειρμούς και όχι με λογικούς συλλογισμούς.
Όταν συναντούν το "όχι καλό", συνδέουν αυτόματα το "καλό" με ένα θετικό συναίσθημα, αγνοώντας την άρνηση.
Αυτή η προσέγγιση δημιουργεί ανεπαίσθητα αλλά κρίσιμα σφάλματα, ιδιαίτερα επικίνδυνα σε νομικές, ιατρικές εφαρμογές ή εφαρμογές ανθρώπινου δυναμικού. Σε αντίθεση με τους ανθρώπους, η τεχνητή νοημοσύνη αδυνατεί να ξεπεράσει αυτές τις αυτόματες συσχετίσεις.
Οι ερευνητές διερευνούν πολλά υποσχόμενους δρόμους με συνθετικά δεδομένα άρνησης.
Ωστόσο, ο Katanforoosh τονίζει ότι η απλή αύξηση των δεδομένων εκπαίδευσης δεν αρκεί.
Η λύση έγκειται στην ανάπτυξη μοντέλων ικανών για λογικό συλλογισμό, συνδυάζοντας τη στατιστική μάθηση με τη δομημένη σκέψη.
Αυτή η εξέλιξη αποτελεί τη μεγαλύτερη πρόκληση της σύγχρονης τεχνητής νοημοσύνης.

www.bankingnews.gr

Ρoή Ειδήσεων

Σχόλια αναγνωστών

Δείτε επίσης