Ευρωπαϊκός κανονισμός τεχνητής νοημοσύνης: Μια προσπάθεια διατήρησης της ανθρώπινης τεχνητής νοημοσύνης

ΠΙΣΤΩΣΗ ΕΙΚΟΝΑΣ:
Πιστωτικά Εικόνα
iStock

Ευρωπαϊκός κανονισμός τεχνητής νοημοσύνης: Μια προσπάθεια διατήρησης της ανθρώπινης τεχνητής νοημοσύνης

ΚΑΤΑΣΚΕΥΑΣΜΕΝΟ ΓΙΑ ΤΟΝ ΜΕΛΛΟΝΤΑΣ ΤΟΥ ΑΥΡΙΟΥ

Η πλατφόρμα Quantumrun Trends θα σας δώσει τις πληροφορίες, τα εργαλεία και την κοινότητα για να εξερευνήσετε και να ευδοκιμήσετε από τις μελλοντικές τάσεις.

Προσφορές

5 $ ΤΟ ΜΗΝΑ

Ευρωπαϊκός κανονισμός τεχνητής νοημοσύνης: Μια προσπάθεια διατήρησης της ανθρώπινης τεχνητής νοημοσύνης

Κείμενο υπότιτλου
Η κανονιστική πρόταση της Ευρωπαϊκής Επιτροπής για την τεχνητή νοημοσύνη στοχεύει στην προώθηση της ηθικής χρήσης της τεχνητής νοημοσύνης.
    • Συγγραφέας:
    • όνομα συγγραφέα
      Quantumrun Foresight
    • Ιούνιος 13, 2022

    Περίληψη Insight

    Η Ευρωπαϊκή Επιτροπή (ΕΚ) κάνει βήματα για να θέσει ηθικά πρότυπα για την τεχνητή νοημοσύνη (AI), εστιάζοντας στην πρόληψη της κακής χρήσης σε τομείς όπως η επιτήρηση και τα δεδομένα των καταναλωτών. Αυτή η κίνηση έχει πυροδοτήσει συζητήσεις στον κλάδο της τεχνολογίας και θα μπορούσε να οδηγήσει σε μια ενιαία προσέγγιση με τις ΗΠΑ, με στόχο την παγκόσμια επιρροή. Ωστόσο, οι κανονισμοί ενδέχεται να έχουν επίσης ακούσιες συνέπειες, όπως ο περιορισμός του ανταγωνισμού στην αγορά και η επίδραση των ευκαιριών εργασίας στον τομέα της τεχνολογίας.

    Ευρωπαϊκό πλαίσιο κανονισμών για την τεχνητή νοημοσύνη

    Η EC έχει επικεντρωθεί ενεργά στη δημιουργία πολιτικών για τη διασφάλιση του απορρήτου των δεδομένων και των δικαιωμάτων στο διαδίκτυο. Πρόσφατα, αυτή η εστίαση επεκτάθηκε για να συμπεριλάβει την ηθική χρήση των τεχνολογιών AI. Η ΕΚ ανησυχεί για την πιθανή κατάχρηση της τεχνητής νοημοσύνης σε διάφορους τομείς, από τη συλλογή δεδομένων καταναλωτών έως την επιτήρηση. Με αυτόν τον τρόπο, η Επιτροπή στοχεύει να θέσει ένα πρότυπο για την ηθική της τεχνητής νοημοσύνης, όχι μόνο εντός της ΕΕ αλλά ενδεχομένως ως μοντέλου για τον υπόλοιπο κόσμο.

    Τον Απρίλιο του 2021, η EC έκανε ένα σημαντικό βήμα δημοσιεύοντας ένα σύνολο κανόνων που στοχεύουν στην παρακολούθηση εφαρμογών τεχνητής νοημοσύνης. Αυτοί οι κανόνες έχουν σχεδιαστεί για να εμποδίζουν τη χρήση της τεχνητής νοημοσύνης για παρακολούθηση, διαιώνιση μεροληψίας ή κατασταλτικών ενεργειών από κυβερνήσεις ή οργανισμούς. Συγκεκριμένα, οι κανονισμοί απαγορεύουν συστήματα τεχνητής νοημοσύνης που θα μπορούσαν να βλάψουν άτομα είτε σωματικά είτε ψυχολογικά. Για παράδειγμα, δεν επιτρέπονται συστήματα τεχνητής νοημοσύνης που χειραγωγούν τη συμπεριφορά των ανθρώπων μέσω κρυφών μηνυμάτων, ούτε συστήματα που εκμεταλλεύονται τις σωματικές ή ψυχικές ευπάθειες των ανθρώπων.

    Παράλληλα, η EC έχει επίσης αναπτύξει μια πιο αυστηρή πολιτική για αυτά που θεωρεί «υψηλού κινδύνου» συστήματα τεχνητής νοημοσύνης. Πρόκειται για εφαρμογές τεχνητής νοημοσύνης που χρησιμοποιούνται σε τομείς που έχουν ουσιαστικό αντίκτυπο στη δημόσια ασφάλεια και ευημερία, όπως ιατρικές συσκευές, εξοπλισμός ασφαλείας και εργαλεία επιβολής του νόμου. Η πολιτική περιγράφει αυστηρότερες απαιτήσεις ελέγχου, διαδικασία έγκρισης και συνεχή παρακολούθηση μετά την ανάπτυξη αυτών των συστημάτων. Βιομηχανίες όπως η βιομετρική ταυτοποίηση, οι υποδομές ζωτικής σημασίας και η εκπαίδευση βρίσκονται επίσης κάτω από αυτήν την ομπρέλα. Οι εταιρείες που δεν συμμορφώνονται με αυτούς τους κανονισμούς ενδέχεται να αντιμετωπίσουν υψηλά πρόστιμα, έως και 32 εκατομμύρια δολάρια ΗΠΑ ή το 6 τοις εκατό των παγκόσμιων ετήσιων εσόδων τους.

    Αποδιοργανωτικός αντίκτυπος

    Ο κλάδος της τεχνολογίας έχει εκφράσει ανησυχίες σχετικά με το ρυθμιστικό πλαίσιο της ΕΚ για την τεχνητή νοημοσύνη, υποστηρίζοντας ότι τέτοιοι κανόνες θα μπορούσαν να εμποδίσουν την τεχνολογική πρόοδο. Οι επικριτές επισημαίνουν ότι ο ορισμός των συστημάτων τεχνητής νοημοσύνης «υψηλού κινδύνου» στο πλαίσιο δεν είναι σαφής. Για παράδειγμα, μεγάλες εταιρείες τεχνολογίας που χρησιμοποιούν AI για αλγόριθμους μέσων κοινωνικής δικτύωσης ή στοχευμένες διαφημίσεις δεν ταξινομούνται ως "υψηλού κινδύνου", παρά το γεγονός ότι αυτές οι εφαρμογές έχουν συνδεθεί με διάφορα κοινωνικά ζητήματα όπως η παραπληροφόρηση και η πόλωση. Η EC αντιτίθεται σε αυτό δηλώνοντας ότι οι εθνικοί εποπτικοί φορείς σε κάθε χώρα της ΕΕ θα έχουν τον τελευταίο λόγο για το τι συνιστά εφαρμογή υψηλού κινδύνου, αλλά αυτή η προσέγγιση θα μπορούσε να οδηγήσει σε ασυνέπειες μεταξύ των κρατών μελών.

    Η Ευρωπαϊκή Ένωση (ΕΕ) δεν ενεργεί μεμονωμένα. στοχεύει να συνεργαστεί με τις ΗΠΑ για τη δημιουργία ενός παγκόσμιου προτύπου για την ηθική της τεχνητής νοημοσύνης. Ο Νόμος Στρατηγικού Ανταγωνισμού της Γερουσίας των ΗΠΑ, που κυκλοφόρησε τον Απρίλιο του 2021, ζητά επίσης διεθνή συνεργασία για την αντιμετώπιση του «ψηφιακού αυταρχισμού», μια συγκαλυμμένη αναφορά σε πρακτικές όπως η χρήση βιομετρικών στοιχείων από την Κίνα για μαζική παρακολούθηση. Αυτή η διατλαντική συνεργασία θα μπορούσε να δώσει τον τόνο για την παγκόσμια ηθική της τεχνητής νοημοσύνης, αλλά εγείρει επίσης ερωτήματα σχετικά με τον τρόπο επιβολής τέτοιων προτύπων παγκοσμίως. Οι χώρες με διαφορετικές απόψεις για το απόρρητο των δεδομένων και τα ατομικά δικαιώματα, όπως η Κίνα και η Ρωσία, θα συμμορφώνονταν με αυτές τις κατευθυντήριες γραμμές ή αυτό θα δημιουργούσε ένα κατακερματισμένο τοπίο ηθικής της τεχνητής νοημοσύνης;

    Εάν αυτοί οι κανονισμοί γίνουν νόμος στα μέσα έως τα τέλη της δεκαετίας του 2020, θα μπορούσαν να έχουν κυματιστικές επιπτώσεις στη βιομηχανία τεχνολογίας και στο εργατικό δυναμικό στην ΕΕ. Οι εταιρείες που δραστηριοποιούνται στην ΕΕ ενδέχεται να επιλέξουν να εφαρμόσουν αυτές τις κανονιστικές αλλαγές σε παγκόσμιο επίπεδο, ευθυγραμμίζοντας ολόκληρη τη λειτουργία τους με τα νέα πρότυπα. Ωστόσο, ορισμένοι οργανισμοί μπορεί να βρουν τους κανονισμούς πολύ επαχθή και να επιλέξουν να εξέλθουν εντελώς από την αγορά της ΕΕ. Και τα δύο σενάρια θα έχουν επιπτώσεις στην απασχόληση στον τεχνολογικό τομέα της ΕΕ. Για παράδειγμα, μια μαζική έξοδος εταιρειών θα μπορούσε να οδηγήσει σε απώλεια θέσεων εργασίας, ενώ η παγκόσμια ευθυγράμμιση με τα πρότυπα της ΕΕ θα μπορούσε να καταστήσει τους τεχνολογικούς ρόλους με βάση την ΕΕ πιο εξειδικευμένους και δυνητικά πιο πολύτιμους.

    Συνέπειες για την αυξημένη ρύθμιση της τεχνητής νοημοσύνης στην Ευρώπη

    Οι ευρύτερες συνέπειες της ολοένα και μεγαλύτερης επιθυμίας της ΕΚ να ρυθμίσει την τεχνητή νοημοσύνη μπορεί να περιλαμβάνουν:

    • Η ΕΕ και οι ΗΠΑ συνάπτουν μια αμοιβαία συμφωνία πιστοποίησης για εταιρείες τεχνητής νοημοσύνης, που οδηγεί σε ένα εναρμονισμένο σύνολο ηθικών προτύπων που πρέπει να ακολουθούν οι εταιρείες, ανεξάρτητα από τη γεωγραφική τους θέση.
    • Ανάπτυξη στον εξειδικευμένο τομέα του ελέγχου τεχνητής νοημοσύνης, που τροφοδοτείται από την αυξημένη συνεργασία μεταξύ ιδιωτικών εταιρειών και δημοσίων τομέων για τη διασφάλιση της συμμόρφωσης με τους νέους κανονισμούς.
    • Έθνη και επιχειρήσεις από τον αναπτυσσόμενο κόσμο αποκτούν πρόσβαση σε ψηφιακές υπηρεσίες που συμμορφώνονται με τα ηθικά πρότυπα τεχνητής νοημοσύνης που ορίζονται από τα δυτικά έθνη, βελτιώνοντας ενδεχομένως την ποιότητα και την ασφάλεια αυτών των υπηρεσιών.
    • Μια αλλαγή στα επιχειρηματικά μοντέλα για να δοθεί προτεραιότητα στις ηθικές πρακτικές τεχνητής νοημοσύνης, προσελκύοντας καταναλωτές που ανησυχούν όλο και περισσότερο για το απόρρητο των δεδομένων και τη χρήση ηθικής τεχνολογίας.
    • Οι κυβερνήσεις υιοθετούν την τεχνητή νοημοσύνη σε δημόσιες υπηρεσίες όπως η υγειονομική περίθαλψη και οι μεταφορές με μεγαλύτερη εμπιστοσύνη, γνωρίζοντας ότι αυτές οι τεχνολογίες πληρούν αυστηρά ηθικά πρότυπα.
    • Αυξήθηκαν οι επενδύσεις σε εκπαιδευτικά προγράμματα που επικεντρώνονται στην ηθική τεχνητή νοημοσύνη, δημιουργώντας μια νέα γενιά τεχνολόγων που είναι γνώστες τόσο στις ικανότητες της τεχνητής νοημοσύνης όσο και στις ηθικές πτυχές.
    • Μικρότερες νεοσύστατες εταιρείες τεχνολογίας αντιμετωπίζουν εμπόδια εισόδου λόγω του υψηλού κόστους της συμμόρφωσης με τους κανονισμούς, δυνητικά καταπνίγοντας τον ανταγωνισμό και οδηγώντας σε ενοποίηση της αγοράς.

    Ερωτήσεις προς εξέταση

    • Πιστεύετε ότι οι κυβερνήσεις πρέπει να ρυθμίζουν τις τεχνολογίες τεχνητής νοημοσύνης και τον τρόπο με τον οποίο αναπτύσσονται;
    • Πώς διαφορετικά μπορεί να επηρεάσει η αυξημένη νομοθεσία στον κλάδο της τεχνολογίας τον τρόπο λειτουργίας των εταιρειών του κλάδου;