Τον «κώδωνα του κινδύνου» έκρουσε ο Παγκόσμιος Οργανισμός Υγείας (ΠΟΥ) για τη χρήση της τεχνητής νοημοσύνης (Artificial Intelligence) στη δημόσια υγεία, επισημαίνοντας πως τα δεδομένα που χρησιμοποιεί -προκειμένου να καταλήξει σε αποφάσεις- μπορεί να είναι μεροληπτικά ή να χρησιμοποιούνται λανθασμένα.
Μολονότι ο Παγκόσμιος Οργανισμός Υγείας (ΠΟΥ) δηλώνει ενθουσιασμένος με τις δυνατότητες της τεχνητής νοημοσύνης, διατυπώνει ανησυχίες σχετικά με το πώς θα χρησιμοποιηθεί ώστε να βελτιώσει την πρόσβαση σε πληροφορίες υγείας, ως ένα εργαλείο υποστήριξης των αποφάσεων και για τη βελτίωση της ικανότητας διάγνωσης, ώστε να προστατευθεί η ανθρώπινη υγεία και να μειωθούν οι ανισότητες.
Μεροληπτικά δεδομένα
Συγκεκριμένα, ο ΠΟΥ ανέφερε σε ανακοίνωση του πως τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση της ΑΙ μπορεί να είναι μεροληπτικά, παράγοντας παραπλανητικές ή ανακριβείς πληροφορίες που μπορεί να δημιουργούν απειλές για την υγεία, την ισότητα και τη συμπεριληπτικότητα και πως τα μοντέλα μπορεί να χρησιμοποιηθούν λανθασμένα με αποτέλεσμα να παράγουν και να διασπείρουν πολύ πειστικά παραπληροφόρηση με τη μορφή κειμένου, ηχητικού ή βίντεο το οποίο το κοινό είναι δύσκολο να ξεχωρίσει από ένα αξιόπιστο περιεχόμενο για την υγεία.
Είναι “επιτακτική ανάγκη” να αποτιμηθούν οι κίνδυνοι από τη χρησιμοποίηση μεγάλων γλωσσικών μοντέλων (LLMs), όπως το ChatGPT, ώστε να προστατευθεί και να προωθηθεί η ανθρώπινη ευημερία, ανέφερε ο οργανισμός του ΟΗΕ για την υγεία.
Η προειδοποίησή του έρχεται καθώς οι εφαρμογές τεχνητής νοημοσύνης αποκτούν πολύ γρήγορα αποδοχή, υπογραμμίζοντας μια τεχνολογία που θα μπορούσε να ανατρέψει τον τρόπο που λειτουργούν οι επιχειρήσεις και η κοινωνία.
Κάντε like στη σελίδα μας στο facebook για να μαθαίνετε όλα τα νέα