H τεχνητή νοημοσύνη τα έκανε μαντάρα σε ειδησεογραφικό πείραμα του BBC

ΠΟΛΙΤΗΣ NEWS

Header Image

Ανακρίβειες και διαστρεβλώαεις στις περιλήψεις ειδήσεων που έδωσαν τέσσερα μοντέλα τεχνητής νοημοσύνης.

Η αλήθεια μπερδεύεται με τις γνώμες και τις παραισθήσεις στις περιλήψεις ειδήσεων που παράγουν τα δημοφιλέστερα μοντέλα τεχνητής νοημοσύνης, επιβεβαιώνει έρευνα του BBC.

«Σημαντικές ανακρίβειες» και διαστρεβλώσεις βρέθηκαν στις απαντήσεις του ChatGPΤ της OpenAI, του Copilot της Microsoft, του Gemini της Google και της εφαρμογής της Perplexity AI, αναφέρει το βρετανικό δίκτυο.

H τεχνητή νοημοσύνη προσφέρει μεν «ατέλειωτες ευκαιρίες», όμως οι εταιρείες που βιάζονται να λανσάρουν τα μοντέλα τους στην αγορά «παίζουν με τη φωτιά» σχολίασε σε ιστολόγιο του BBC η Ντέμπορα Τέρνες, διευθύνουσα σύμβουλος του BBC News.

«Ζούμε σε δύσκολους καιρούς. Πόσος καιρός θα περάσει πριν ένας διαστρεβλωμένος τίτλος ΑΙ προκαλέσει σημαντικές βλάβες στον πραγματικό κόσμος;» διερωτήθηκε.

Στο πλαίσιο της μελέτης, τα τέσσερα μοντέλα ΑΙ κλήθηκαν να διαβάσουν 100 άρθρα του BBC και να απαντήσουν σε σχετικές ερωτήσεις. Δημοσιογράφοι ανέλαβαν να αξιολογήσουν τις απαντήσεις στο αντικείμενό τους.

Το 51% των απαντήσεων κρίθηκε ότι έπασχε από «σημαντικά» προβλήματα.

Για παράδειγμα, το 19% των απαντήσεων που υποτίθεται ότι παρέθεταν αποσπάσματα toy BBC περιείχαν πραγματολογικά σφάλματα, όπως λανθασμένες δηλώσεις, αριθμούς και ημερομηνίες.

Μεταξύ άλλων:

  • Το Gemini ανέφερε εσφαλμένα πως το βρετανικό Εθνικό Σύστημα Υγείας δεν συστήνει το ηλεκτρονικό τσιγάρο ως μέσο διακοπής του καπνίσματος.
  • Το ChatGPT και το Copilot δήλωσαν ότι ο πρώην πρωθυπουργός της Βρετανίας Ρίσι Σούνακ και η πρώην πρώτη υπουργός της Σκωτίας Νίκολα Στέρτζεον βρίσκονται ακόμα στις θέσεις τους.
  • H εφαρμογή της Perplexity διαστρέβλωσε άρθρο για τη Μέση Ανατολή λέγοντας ότι το Ιράν επέδειξε «αυτοσυγκράτηση» ενώ το Ισραήλ είναι «επιθετικό». Τα επίθετα αυτά δεν υπήρχαν στο πρωτότυπο άρθρο.

Σε γενικές γραμμές , το Copilot και το Gemini έδωσαν περισσότερες εσφαλμένες απαντήσεις.

Σύμφωνα με τους ερευνητές, το πρόβλημα οφείλεται εν μέρει στο γεγονός ότι η ΑΙ δεν κάνει διακρίσεις ανάμεσα σε γεγονότα και απόψεις, ούτε ξεχωρίζει την τρέχουσα επικαιρότητα από το αρχειακό υλικό. Τείνει επίσης να εισάγει αυθαίρετες απόψεις στις απαντήσεις της.

Κανονικά το BBC χρησιμοποιεί αρχεία robot.txt για να εμποδίσει την πρόσβαση μοντέλων ΑΙ στο περιεχόμενό του. Άνοιξε όμως τον δικτυακό τόπο του για το πείραμα τον περασμένο Δεκέμβριο.

Νωρίτερα, χθες, το βρετανικό δίκτυο είχε αναγκάσει την Apple να διακόψει την υπηρεσία αυτόματων ειδησεογραφικών ενημερώσεων, όταν διαπιστώθηκε ότι το σύστημα έδινε παραπλανητικούς τίτλους.

IN.GR

 

ΤΑ ΑΚΙΝΗΤΑ ΤΗΣ ΕΒΔΟΜΑΔΑΣ

Λογότυπο Altamira

Πολιτική Δημοσίευσης Σχολίων

Οι ιδιοκτήτες της ιστοσελίδας www.politis.com.cy διατηρούν το δικαίωμα να αφαιρούν σχόλια αναγνωστών, δυσφημιστικού και/ή υβριστικού περιεχομένου, ή/και σχόλια που μπορούν να εκληφθεί ότι υποκινούν το μίσος/τον ρατσισμό ή που παραβιάζουν οποιαδήποτε άλλη νομοθεσία. Οι συντάκτες των σχολίων αυτών ευθύνονται προσωπικά για την δημοσίευση τους. Αν κάποιος αναγνώστης/συντάκτης σχολίου, το οποίο αφαιρείται, θεωρεί ότι έχει στοιχεία που αποδεικνύουν το αληθές του περιεχομένου του, μπορεί να τα αποστείλει στην διεύθυνση της ιστοσελίδας για να διερευνηθούν. Προτρέπουμε τους αναγνώστες μας να κάνουν report / flag σχόλια που πιστεύουν ότι παραβιάζουν τους πιο πάνω κανόνες. Σχόλια που περιέχουν URL / links σε οποιαδήποτε σελίδα, δεν δημοσιεύονται αυτόματα.

Διαβάστε περισσότερα