ΑΝΑΖΗΤΗΣΗ

Τεχνητή νοημοσύνη: Όταν οι υπολογιστές αυτονομούνται

Tweet
Share
Tweet
Share

Σε αντίθεση με τα πρώιμα «στατικά» μοντέλα, τα σημερινά προγράμματα τεχνητής νοημοσύνης έχουν την ικανότητα της μάθησης. 

Αλλά ακριβώς αυτή η (σχεδόν) ανθρώπινη διάσταση των σύγχρονων υπολογιστών εμπεριέχει κινδύνους που μόνον ένας συγγραφέας δυστοπικής επιστημονικής φαντασίας θα μπορούσε να προβλέψει πριν από μερικά χρόνια: Οι εν λόγω «έξυπνοι» αλγόριθμοι προσομοιάζουν ολοένα και περισσότερο στους δημιουργούς τους και οι δημιουργοί τυχαίνει να είναι κάθε άλλο παρά αλάνθαστοι.

Κι αν όλα αυτά ακούγονται κάπως αστεία, τα πράγματα είναι σαφώς πιο σοβαρά στην περίπτωση των προγραμμάτων που χρησιμοποιούν ευρέως τα δικαστήρια των ΗΠΑ για να κρίνουν αν ένας κρατούμενος είναι πιθανό να απασχολήσει ξανά τις αρχές.

Ο οργανισμός ερευνητικής δημοσιογραφίας ProPublica μελέτησε τα προφίλ πάνω από 7.000 συλληφθέντων και συνέκρινε το «σκορ» (δηλαδή τις πιθανότητες υποτροπής μέσα στα επόμενα δύο χρόνια) που τους αναλογούσε σύμφωνα με τους υπολογισμούς των ειδικών αλγορίθμων, αποκαλύπτοντας πως ακόμη και εκείνοι είχαν την τάση να κατηγοριοποιούν τους μαύρους κατηγορουμένους ως μελλοντικούς εγκληματίες.

Εντούτοις, τέτοιου είδους εφαρμογές προωθούνται ευρέως προς χρήση από οργανισμούς εύρεσης εργασίας, από τράπεζες για την αξιολόγηση αιτήσεων δανεισμού, από την αστυνομία για τον προσδιορισμό περιοχών που χρήζουν αστυνόμευσης κ.ά.

Φυσικά κανένας δεν μπορεί να χαρακτηρίσει ένα μηχάνημα «ρατσιστικό», στην πράξη όμως ένας αλγόριθμος που διδάσκεται από το περιβάλλον του έχει ελάχιστες πιθανότητες να είναι απολύτως «αντικειμενικός».

Σύμφωνα με έρευνα που δημοσιεύθηκε την περασμένη άνοιξη στο περιοδικό Science, τα μηχανήματα «μαθαίνουν» εντοπίζοντας και αφομοιώνοντας τους πιο συνηθισμένους συσχετισμούς μεταξύ των λέξεων, όπως αυτοί αποτυπώνονται μέσα στο χάος του Διαδικτύου. Επομένως δεν εκπλήσσει το γεγονός ότι συσχετίζουν τη λέξη «γυναίκα» με τις θεωρητικές επιστήμες και τη λέξη «άντρας» με τα μαθηματικά ή ότι συνδέουν τα αφροαμερικανικά ονόματα με δυσάρεστες έννοιες.

Επειδή δεν μπορούν να αλλάξουν την ανθρωπότητα, οι πολυεθνικοί κολοσσοί του Ιντερνετ έχουν υποσχεθεί ότι θα διερευνήσουν μεθόδους «φιλτραρίσματος» των δεδομένων, με τα οποία βομβαρδίζονται τα... ανυποψίαστα συστήματα τεχνητής νοημοσύνης. Εντός του Ιουλίου, η Google λάνσαρε το πρότζεκτ PAIR (People + AI Research), που έχει ακριβώς αυτόν τον σκοπό, ενώ μια ομάδα προγραμματιστών και ερευνητών ίδρυσε το AI Now Initiative σε συνεργασία με την Αμερικανική Ένωση για τις Ελευθερίες των Πολιτών. Το εγχείρημα, η δημιουργία του οποίου ανακοινώθηκε σε εκδήλωση του MIT, αποσκοπεί στον εντοπισμό και την κατανόηση των... αλγοριθμικών προκαταλήψεων, που, σύμφωνα με τους ιδρυτές της πρωτοβουλίας, ενδέχεται να αποτελέσουν σοβαρή απειλή στο προσεχές μέλλον.

Περισσότερα σε αυτή την κατηγορία: Προηγούμενο θέμα Επόμενο θέμα

Προσθήκη σχολίου

Premium Penna Reporter Mamamia CityWoman