Ηθική και Τεχνητή Νοημοσύνη

(από τον Michele Gorga) Αξιολογώντας το μονοπάτι της ανθρωπότητας από την προέλευσή του έως σήμερα, μπορούμε να φτάσουμε σε μια βεβαιότητα ότι η πραγματικότητα της τεχνολογικής μας ανάπτυξης δεν είναι γραμμική, αλλά εκθετική και αυτό βάσει του θεμελιώδους νόμου που πηγαίνει με το όνομα του νόμος επιτάχυνσης των επιστροφών. Ένας νόμος, ο τελευταίος, ο οποίος μπορεί να γίνει κατανοητός μόνο εάν ενώσουμε σημεία σε ένα καρτεσιανό επίπεδο: στον άξονα x (οριζόντιος) ορίζουμε την ώρα, στον άξονα τεταγμένης (κατακόρυφο) το επίπεδο της τεχνολογικής προόδου έφτασε σε μια συγκεκριμένη ημερομηνία. Το αποτέλεσμα, ωστόσο, δεν είναι μια ευθεία λίγο-πολύ κεκλιμένη αλλά μια εκθετική καμπύλη και με βάση την τάση που μπορούμε να αντλήσουμε από αυτήν, μπορούμε να πιστέψουμε ότι σε λίγα χρόνια θα γίνει μια ευθεία παράλληλη με την τεταγμένη. Επομένως, δεν θα υπάρχει πλέον σημείο επαφής με την τεταγμένη και η συνέπεια θα είναι ότι δεν θα ξέρουμε πλέον την τετμημένη θέση όπου βρισκόμαστε κάθε στιγμή και, ως εκ τούτου, θα πηδήσουμε στην κατάσταση που η κβαντική φυσική αποκαλεί μοναδικότητα.

Με το "singularity" εννοούμε εκείνη την κατάσταση στην οποία λειτουργούν οι τέσσερις θεμελιώδεις δυνάμεις της φύσης, δηλαδή: η βαρύτητα. ηλεκτρομαγνητισμός; η ισχυρή δύναμη που ενώνει τα πρωτόνια στον πυρήνα του ατόμου · η αδύναμη δύναμη που διέπει την αρχή της ραδιενεργού αποσύνθεσης. Μπορούμε να αναγνωρίσουμε αυτές τις δυνάμεις με τα τέσσερα αντίστοιχα γράμματα που είναι το G της γενετικής. το R της ρομποτικής · το N της νανοτεχνολογίας · το I της τεχνητής νοημοσύνης.

Προχωρώντας με τη σειρά, το G της «γενετικής» μας επιτρέπει να αναγνωρίσουμε, από όλα τα ζωντανά πλάσματα, ο γενετικός κώδικας θα μας επιτρέψει να βελτιώσουμε τον αγώνα σύμφωνα με τον κανονικό τύπο ότι σε μια δεδομένη ιστορική στιγμή η ηθική και η ισχύουσα ιδεολογία θα επιτρέψουν την προσγειώνεται και είναι σε θέση να είναι, για τον άνθρωπο, αυτό που θέλει να είναι, ανεξάρτητα από το τι είναι, και ως εκ τούτου, γενετικά τροποποιημένοι οργανισμοί βάσει του τι θα επιτρέψει η ηθική και η πολιτική στη σχετική ιστορική περίοδο. Όσον αφορά το R του "Robotics" για αυτό, πρέπει να εννοούμε, όχι τι είναι η ρομποτική σήμερα, αλλά προηγμένα μηχανήματα που θα έχουν τόσο τη γνώση του χώρου και του χρόνου όσο και ικανά να αντιμετωπίσουν ανθρώπινες πτυχές, Android, ικανά να έχουν συναισθηματική συνείδηση ​​[7 ]. Έτσι, η ρομποτική όχι μόνο ως μηχανές που βασίζονται στη νοημοσύνη ή ως βοηθοί εργασίας, αλλά και οντότητες ικανές να συνδέονται σε επαγγελματικές δραστηριότητες με τον Man. Η συνέπεια που θα έχει η ρομποτική στην κοινωνία και την πολιτική θα είναι τα κοινωνικά κινήματα που στοχεύουν στο να κάνουν τα Android και γενικά όλη τη δημιουργία να αναγνωρίζεται στον κόσμο των ζώων και των φυτών, στο περιβάλλον κ.λπ., επίσης, στην περίπτωση αυτή, η ηθική και η πολιτική θα είναι αναγκασμένος να πάρει θέση.

Περνώντας στο Ν για "νανο τεχνολογία" γι 'αυτό πρέπει να εννοούμε απεριόριστα μικρο τεχνολογία, υγρά στοιχεία που μπορούν αμέσως να αλλάξουν το εξωτερικό και το εσωτερικό της πραγματικότητας αντικαθιστώντας και τροποποιώντας τον ίδιο τον χώρο της ανθρώπινης ύπαρξης. Τέλος από το I της «τεχνητής νοημοσύνης» εννοούμε τι ιστορικά μπορεί να συγκριθεί με το Άγιο Δισκοπότηρο, - με την έννοια της AI ως αλγόριθμος ζωής και αιώνιας γνώσης - ή Deus ex-machina [8], η πιο επικίνδυνη τεχνολογία και, για σενάρια μέλλον, μια τεχνολογία τόσο επεμβατική ώστε να υπονομεύει το σύστημα αξιών και τα θεμέλια του ανθρώπινου πολιτισμού και του ανθρώπου, όπως ιστορικά έχει καθοριστεί με την πάροδο του χρόνου.

Η Τεχνητή Νοημοσύνη βασίζεται, στην πραγματικότητα, σε αλγόριθμους που μπορεί να είναι κυριαρχία, έλεγχος, καριέρα, καταναλωτισμός, ανταγωνισμού, όλες οι τεχνολογίες εκπλήρωσης της ανθρώπινης γήρανσης και οι οποίες θα μπορούσαν να υπονομεύσουν την ίδια την ύπαρξη της ανθρωπότητας. Και είναι ακριβώς η τεχνητή νοημοσύνη που, περισσότερο από οποιαδήποτε άλλη τεχνολογία, αναπτύσσεται ραγδαία στην κοινωνία μας και κατά συνέπεια αλλάζει τη ζωή μας βελτιώνοντας τις υπηρεσίες υγειονομικής περίθαλψης, αυξάνοντας την αποτελεσματικότητα της γεωργίας, συμβάλλοντας στον μετριασμό αλλαγή του κλίματος και βελτίωση της αποτελεσματικότητας των συστημάτων παραγωγής μέσω προγνωστικής ανάλυσης με αύξηση των πτυχών ασφάλειας. Ταυτόχρονα, ωστόσο, η τεχνητή νοημοσύνη συνεπάγεται νέους κινδύνους που συνδέονται με αδιαφανείς μηχανισμούς λήψης αποφάσεων, πιθανές διακρίσεις λόγω φύλου, εισβολή στην ιδιωτική ζωή ή τη χρήση συσκευών που χρησιμοποιούνται για εγκληματικούς σκοπούς. Η τεχνολογία EI είναι ισχυρή επειδή έχει γίνει διαφανής και όλοι βασίζουμε σε συσκευές που μπορούμε τώρα να ορίσουμε ως τεχνολογικές και γνωστικές προθέσεις μας. Για αυτόν τον λόγο γινόμαστε πιο ευάλωτοι, από εκείνους που χρησιμοποιούν την τεχνολογία για ανήθικους ή για εγκληματικούς σκοπούς.

Αυτοί είναι οι λόγοι που οδήγησαν στην ανάγκη ευρωπαϊκού συντονισμού για την πειθαρχία του IE και αυτό οφείλεται στις ανθρώπινες και ηθικές επιπτώσεις, που είναι εγγενείς στην τεχνητή νοημοσύνη, με την ανάγκη για βαθύ προβληματισμό για τη βελτίωση της χρήσης των μεγάλων δίνεται για καινοτομία, η οποία λόγω της ανάγκης για υποχρεωτική κανονιστική πειθαρχία και επενδύσεις με στόχο την επίτευξη ενός διπλού στόχου, δηλαδή για την προώθηση, αφενός, της ευρείας χρήσης της τεχνητής νοημοσύνης και, αφετέρου, για την άμβλυνση όλων των δυνατών κινδύνους που σχετίζονται με τη νέα ψηφιακή τεχνολογία.

Αυτοί είναι οι βαθύτεροι λόγοι στις οποίες βασίζονται οι ανακοινώσεις της 25ης Απριλίου 2018 και της 7ης Δεκεμβρίου 2018, με τις οποίες η Ευρωπαϊκή Επιτροπή παρουσίασε το όραμά της για την τεχνητή νοημοσύνη (AI), βαπτισμένη ως «AI» που δημιουργήθηκε στην ευρωπαϊκή ηθική, ασφαλής και πρωτοπορική ".

Το όραμα της Επιτροπής βασίζεται σε τρεις πυλώνες: 1) την αύξηση των δημόσιων και ιδιωτικών επενδύσεων στην τεχνητή νοημοσύνη για την προώθηση της υιοθέτησής της, 2) την προετοιμασία για κοινωνικοοικονομικές αλλαγές και 3) τη διασφάλιση επαρκούς ηθικού και νομικού πλαισίου για την ενίσχυση των ευρωπαϊκών αξιών. Για να υποστηρίξει την υλοποίηση αυτού του οράματος, η Επιτροπή συνέστησε την ομάδα εμπειρογνωμόνων υψηλού επιπέδου για την τεχνητή νοημοσύνη, μια ανεξάρτητη ομάδα που έχει αναλάβει τη σύνταξη δύο εγγράφων: 1) τις ηθικές κατευθυντήριες γραμμές για την τεχνητή νοημοσύνη και 2) τις επενδυτικές συστάσεις και πολιτική.

Για την ομάδα, όσον αφορά το έγγραφο σχετικά με τις ηθικές κατευθυντήριες γραμμές για την τεχνητή νοημοσύνη, πρέπει να έχουμε κατά νου ότι τα συστήματα τεχνητής νοημοσύνης, ενώ προσφέρουν συγκεκριμένα οφέλη σε άτομα και κοινωνία, εξακολουθούν να περιλαμβάνουν κινδύνους και να έχουν αρνητικές επιπτώσεις, ακόμη και δύσκολο να προβλεφθούν. , για παράδειγμα σχετικά με τη δημοκρατία, το κράτος δικαίου, τη διανεμητική δικαιοσύνη ή το ίδιο το ανθρώπινο μυαλό. Αυτός είναι ο λόγος για τον οποίο είναι απαραίτητο, σύμφωνα με την ομάδα εμπειρογνωμόνων, να ληφθούν τα κατάλληλα μέτρα για τον μετριασμό των κινδύνων, με τρόπο ανάλογο προς την έκτασή τους και να εξεταστούν μέθοδοι για τη διασφάλιση της εφαρμογής τους. Πρώτα απ 'όλα, για τους εμπειρογνώμονες είναι απαραίτητο να ενθαρρυνθεί η έρευνα και η καινοτομία για να υποστηρίξουν την αξιολόγηση των συστημάτων τεχνητής νοημοσύνης και την επίτευξη συμμόρφωσης με τις απαιτήσεις, διάδοση των αποτελεσμάτων, για την εκπαίδευση μιας νέας γενιάς εμπειρογνωμόνων στην ηθική της AI. Κατά συνέπεια, ενημερώστε με σαφήνεια τους ενδιαφερόμενους για τις δυνατότητες και τους περιορισμούς του συστήματος. Η διαφάνεια, η διευκόλυνση της ιχνηλασιμότητας και της εξακρίβωσης των συστημάτων τεχνητής νοημοσύνης, ιδιαίτερα σε κρίσιμα περιβάλλοντα ή καταστάσεις, καθίσταται απαραίτητη καθώς και η συμμετοχή των ενδιαφερομένων σε ολόκληρο τον κύκλο ζωής του συστήματος AI και την προώθηση της κατάρτισης και της εκπαίδευσης έτσι ώστε όλοι οι ενδιαφερόμενοι να είναι εκπαιδευμένοι και ενημερωμένοι σχετικά με την αξιόπιστη τεχνητή νοημοσύνη. Ξεκινώντας από το τελευταίο, δηλαδή είναι η ανάγκη να έχουμε μια αξιόπιστη τεχνητή νοημοσύνη, πρέπει να τονιστεί ότι για τους ανθρώπους και τις εταιρείες, η αξιοπιστία είναι απαραίτητη προϋπόθεση για την ανάπτυξη, τη διανομή και τη χρήση των ίδιων των συστημάτων. Διαφορετικά, η χρήση των σχετικών τεχνολογιών θα μπορούσε να παρεμποδιστεί και, ως εκ τούτου, να μειωθούν τα πιθανά κοινωνικά και οικονομικά οφέλη. Η εμπιστοσύνη, επομένως, στην ανάπτυξη, διανομή και χρήση συστημάτων AI δεν αφορά μόνο τις εγγενείς ιδιότητες της τεχνολογίας, αλλά και τις ιδιότητες των τεχνικών και κοινωνικών συστημάτων. Η ομάδα εργασίας καθόρισε έτσι, στο πρώτο της έγγραφο, τις κατευθυντήριες γραμμές για μια αξιόπιστη τεχνητή νοημοσύνη, προβλέποντας ότι θα πρέπει να βασίζεται σε τρία στοιχεία.

Αυτά έχουν προσδιοριστεί: α) στη νομιμότητα, η τεχνητή νοημοσύνη που είναι τεχνητή νοημοσύνη που υπόκειται σε όλους τους νόμους και κανονισμούς που ισχύουν στο συγκεκριμένο θέμα · β) ηθική, AI να νοείται ως το σύνολο των κανόνων του κώδικα δεοντολογίας και των σχετικών ηθικών αρχών και αξιών που πρέπει να έχετε πάντα υπόψη. γ) ανθεκτικότητα, από τεχνική και κοινωνική άποψη, καθώς ακόμη και με τις καλύτερες προθέσεις, τα συστήματα AI μπορούν να προκαλέσουν ακούσια ζημιά. Τώρα κάθε ένα από τα προαναφερθέντα συστατικά είναι από μόνο του απαραίτητο, αλλά παρ 'όλα αυτά δεν επαρκεί για μια αξιόπιστη Τεχνητή Νοημοσύνη. Αυτά τα τρία στοιχεία απευθύνονται κυρίως σε ενδιαφερόμενους και είναι δεσμευτικές ενδείξεις για το πώς οι προαναφερθείσες ηθικές αρχές μπορούν να καταστούν λειτουργικές σε κοινωνικά και τεχνικά συστήματα.

Ξεκινώντας από τη θεμελιώδη προσέγγιση που βασίζεται στα δικαιώματα, καταρχάς, προσδιορίζονται οι ηθικές αρχές και οι σχετικές αξίες που πρέπει να τηρούνται κατά την ανάπτυξη και τη διανομή και τη χρήση συστημάτων AI για να προχωρήσουμε στη συνέχεια στις ενδείξεις για το πώς να δημιουργήσετε αξιόπιστη AI μέσω της δήλωσης των επτά απαιτήσεων που πρέπει να πληρούν τα συστήματα τεχνητής νοημοσύνης και για την εφαρμογή των οποίων μπορούν να χρησιμοποιηθούν τεχνικές και μη τεχνικές μέθοδοι και οι οποίες προσδιορίζονται: 1) - στην ανθρώπινη παρέμβαση και επιτήρηση · 2) - στην τεχνική ευρωστία και την ασφάλεια, 3) - στην προστασία της ιδιωτικής ζωής των δεδομένων και στη διακυβέρνηση, 4) - στη διαφάνεια, 5) - στην ποικιλομορφία, τη μη διάκριση και την αμεροληψία, 6) - στην κοινωνική και περιβαλλοντική ευημερία και 7) - σε 'Ευθύνη. Τέλος, η ομάδα εμπειρογνωμόνων πρότεινε μια λίστα ελέγχου για την αξιολόγηση της αξιοπιστίας της τεχνητής νοημοσύνης που μπορεί να συμβάλει στη λειτουργία των επτά απαιτήσεων που αναφέρονται παραπάνω. Τέλος, στην τελευταία ενότητα του εγγράφου, παραδείγματα πλεονεκτικών ευκαιριών και σοβαρών ανησυχιών που προκαλούν τα συστήματα τεχνητής νοημοσύνης, παρά τη συνειδητοποίηση ότι η Ευρώπη απολαμβάνει αποκλειστικό πλεονέκτημα, το οποίο απορρέει από τη δέσμευσή του να τοποθετήσει τον πολίτη στο κέντρο δικές σας δραστηριότητες.

Michele Gorga, δικηγόρος και παρατηρητήριο για το συντονισμό των DPO AIDR

Ηθική και Τεχνητή Νοημοσύνη

| «ΝΕΑ, ΕΓΓΡΑΦΗ 3 |