ΚαινοτομιαΟ «νονός» της AI προειδοποιεί για «εξαφάνιση του ανθρώπου»

Ο «νονός» της AI προειδοποιεί για «εξαφάνιση του ανθρώπου»

- Advertisement -

Υπέρ της καθιέρωσης του καθολικού βασικού εισοδήματος τάσσεται ο «νονός της τεχνητής νοημοσύνης», για να αντιμετωπιστεί ο αντίκτυπος που θα έχει η AI στην ανισότητα.

Υπέρ της καθιέρωσης του καθολικού βασικού εισοδήματος τάσσεται ο «νονός της τεχνητής νοημοσύνης», για να αντιμετωπιστεί ο αντίκτυπος που θα έχει η AI στην ανισότητα.
Photo: Pexels

ΔΩΡΕΑΝ ΕΓΓΡΑΦΗ ΣΤΟ NEWSLETTER

Ο καθηγητής Τζόφρι Χίντον δήλωσε στο BBC ότι θα χρειαστεί μια μεταρρύθμιση των επιδομάτων ώστε να δίνεται ένα σταθερό ποσό σε κάθε πολίτη επειδή «ανησυχεί πολύ για το γεγονός ότι η τεχνητή νοημοσύνη θα πάρει πολλές καθημερινές δουλειές».

«Με συμβουλεύτηκαν άνθρωποι στην Ντάουνινγκ Στριτ και τους συμβούλεψα ότι το καθολικό βασικό εισόδημα ήταν μια καλή ιδέα», δήλωσε. Είπε ακόμη ότι αν και πιστεύει πως η τεχνητή νοημοσύνη θα αυξήσει την παραγωγικότητα και τον πλούτο, τα χρήματα θα πάνε στους πλούσιους «και όχι στους ανθρώπους των οποίων οι θέσεις εργασίας θα χαθούν και αυτό θα είναι πολύ επιζήμιο για την κοινωνία».

Ο Χίντον θεωρείται ευρέως ως πρωτοπόρος στον τομέα των νευρωνικών δικτύων, τα οποία αποτελούν τη θεωρητική βάση της σημερινής έκρηξης της τεχνητής νοημοσύνης. Μέχρι πέρυσι εργαζόταν στην Google, αλλά εγκατέλειψε τον τεχνολογικό γίγαντα ώστε να μπορεί να μιλάει πιο ελεύθερα για τους κινδύνους που μπορεί να φέρει μια ανεξέλεγκτη τεχνητή νοημοσύνη.

Η έννοια του καθολικού βασικού εισοδήματος ισοδυναμεί με την καταβολή ενός καθορισμένου μισθού σε όλα τα άτομα, ανεξάρτητα από την οικονομική τους κατάσταση. Οι επικριτές λένε ότι θα ήταν εξαιρετικά δαπανηρό και θα αποσπούσε χρηματοδότηση από τις δημόσιες υπηρεσίες, ενώ δε θα βοηθούσε απαραίτητα στην ανακούφιση της φτώχειας.

Εκπρόσωπος της βρετανικής κυβέρνησης δήλωσε ότι «δεν υπάρχουν σχέδια για την καθιέρωση ενός καθολικού βασικού εισοδήματος».

«Απειλές σε επίπεδο εξαφάνισης του ανθρώπου»

Ο Χίντον επανέλαβε την ανησυχία του για το ότι αναδύονται απειλές σε επίπεδο εξαφάνισης του ανθρώπου. Οι εξελίξεις του τελευταίου έτους έδειξαν ότι οι κυβερνήσεις δεν ήταν πρόθυμες να περιορίσουν τη στρατιωτική χρήση της τεχνητής νοημοσύνης, είπε, ενώ ο ανταγωνισμός για την ταχεία ανάπτυξη προϊόντων σήμαινε ότι υπήρχε κίνδυνος οι εταιρείες τεχνολογίας να μην καταβάλουν «αρκετή προσπάθεια για την ασφάλεια».

«Η εκτίμησή μου είναι ότι σε πέντε έως 20 χρόνια από τώρα υπάρχει 50% πιθανότητα να πρέπει να αντιμετωπίσουμε το πρόβλημα της τεχνητής νοημοσύνης που προσπαθεί να καταλάβει την εξουσία».

Αυτό θα οδηγούσε σε μια «απειλή επιπέδου εξαφάνισης» για τους ανθρώπους, επειδή θα μπορούσαμε να έχουμε «δημιουργήσει μια μορφή νοημοσύνης που είναι απλώς καλύτερη από τη βιολογική νοημοσύνη. Αυτό είναι πολύ ανησυχητικό για εμάς».

Η τεχνητή νοημοσύνη θα μπορούσε να «εξελιχθεί», είπε, «ώστε να αποκτήσει το κίνητρο να κάνει περισσότερα από τον εαυτό της» και θα μπορούσε αυτόνομα «να αναπτύξει έναν υπο-στόχο να αποκτήσει τον έλεγχο» και πρόσθεσε ότι υπάρχουν ήδη ενδείξεις ότι μεγάλα γλωσσικά μοντέλα επιλέγουν να είναι παραπλανητικά.

Για τον Χίντον, οι πρόσφατες εφαρμογές της τεχνητής νοημοσύνης για τη δημιουργία χιλιάδων στρατιωτικών στόχων είναι ο προάγγελος χειρότερων γεγονότων στο μέλλον. «Αυτό για το οποίο ανησυχώ περισσότερο είναι όταν αυτά μπορούν να πάρουν αυτόνομα την απόφαση να σκοτώσουν ανθρώπους», ανέφερε.

Ο Χίντον εξέφρασε και την άποψη ότι μπορεί να χρειαστεί κάτι παρόμοιο με τις Συμβάσεις της Γενεύης, τις διεθνείς συνθήκες που θεσπίζουν νομικά πρότυπα για την ανθρωπιστική μεταχείριση στον πόλεμο, ώστε να ρυθμιστεί η στρατιωτική χρήση της τεχνητής νοημοσύνης. «Αλλά δεν νομίζω ότι αυτό θα συμβεί μέχρι να συμβούν πολύ άσχημα πράγματα», πρόσθεσε.

Κάντε like στη σελίδα μας στο facebook για να μαθαίνετε όλα τα νέα

 

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΠΡΟΣΦΑΤΑ ΑΡΘΡΑ