Μέχρι πριν περίπου ενάμιση χρόνο, η τεχνητή νοημοσύνη ήταν ένα καυτό θέμα στα υψηλής εξειδίκευσης επιστημονικά εργαστήρια που αφορούσε στην πραγματικότητα ελάχιστους ανθρώπους οι οποίοι αντιλαμβάνονταν σε βάθος τι ακριβώς είναι και τι θα μπορούσε να σημαίνει για το σύνολο της ανθρωπότητας.
Για τη συντριπτική πλειοψηφία των κοινών θνητών παρέμενε μια αφηρημένη έννοια που βλέπαμε και διαβάζαμε σε ταινίες και βιβλία επιστημονικής φαντασίας.
Τα πάντα ήρθαν πάνω κάτω όταν στη ζωή μας μπήκε το ChatGPT, μια εφαρμογή τεχνητής νοημοσύνης για την παραγωγή συνομιλιών και κειμένων που μιμούνται τον ανθρώπινο λόγο.
Παρά τους μεγάλους ορίζοντες που άνοιξε η εμφάνισή του, δεν άργησαν και οι αντιδράσεις ειδικών που εξέφρασαν ανησυχίες για ζητήματα ασφάλειας στον κυβερνοχώρο, περιπτώσεις λογοκλοπής και καταπάτησης πνευματικών δικαιωμάτων κτλ. 

Η απάντηση της Ευρωπαϊκής Ένωσης 

Πριν λίγες ημέρες υπερψηφίστηκε στο Ευρωκοινοβούλιο ο Κανονισμός για την Τεχνητή Νοημοσύνη, με στόχο, όπως αναφέρεται στο δελτίο τύπου, «να προστατέψει τα θεμελιώδη δικαιώματα, τη δημοκρατία, το κράτος δικαίου και την περιβαλλοντική βιωσιμότητα από τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, αλλά και να ενισχύσει παράλληλα την καινοτομία και να αναδείξει την Ευρώπη ως πρωτοπόρο δύναμη στον τομέα αυτόν».
Είναι, αδιαμφισβήτητα, ένα μεγάλο βήμα που έρχεται να καλύψει το κενό που υπήρχε όσον αφορά ένα ρυθμιστικό πλαίσιο που θα επιτρέπει την ανταγωνιστικότητα της ελεύθερης αγοράς σεβόμενο παράλληλα τα δικαιώματα των πολιτών.
Ένα από τα βασικά σημεία του κανονισμού είναι το φρένο που μπαίνει στις επιχειρήσεις, οι οποίες δεν επιτρέπεται να χρησιμοποιούν την τεχνητή νοημοσύνη με τρόπο που παραβιάζει δικαιώματα ή χειραγωγεί και εκμεταλλεύεται τους εργαζόμενους σε αυτές.
eu-law-ai.webp

Ένα παράδειγμα «καλής» χρήσης

Τα πρώτα δειλά βήματα της τεχνητής νοημοσύνης στο διαδίκτυο έχουν αρχίσει εδώ και κάποια χρόνια. Ο κόσμος των online τυχερών παιχνιδιών, για παράδειγμα, είναι ένας από τους κλάδους που επωφελούνται με πολλούς τρόπους, με την τεχνητή νοημοσύνη να αναγνωρίζει κακόβουλα λογισμικά και ύποπτες δραστηριότητες για την προστασία των χρηστών/παικτών.
Πέρα όμως από την προστασία των δεδομένων, οι πάροχοι έχουν τη δυνατότητα να ξεδιπλώσουν εξαιρετικά αποτελεσματικές για εκείνους πολιτικές μάρκετινγκ αφού τους δίνεται η δυνατότητα όχι μόνο να βελτιώνουν συνολικά την ποιότητα των παιχνιδιών που προσφέρουν αλλά και να αναγνωρίζουν τις προτιμήσεις των παικτών προσφέροντας εξατομικευμένες εμπειρίες.
Παράλληλα, η ικανότητα της τεχνητής νοημοσύνης να εντοπίζει μοτίβα συμπεριφορών στο διαδίκτυο βοηθά στην έγκαιρη αναγνώριση ανησυχητικών ενδείξεων που σχετίζονται με τον εθισμό στον τζόγο, μιας κατάστασης που δεν είναι εύκολο να διαγνωστεί και να καταπολεμηθεί και που μπορεί να έχει καταστροφικές συνέπειες τόσο για το ίδιο τον ενδιαφερόμενο όσο και για το ευρύτερο οικογενειακό του περιβάλλον.

Καμπανάκια για τους κινδύνους

Είναι, ωστόσο, τουλάχιστον αφελές να αφεθούμε στη γοητεία της τεχνητής νοημοσύνης και να παραγνωρίσουμε τους κινδύνους που αυτή εγκυμονεί.
Χαρακτηριστική είναι, για παράδειγμα, η ευκολία δημιουργίας και διάδοσης fake news με παραγωγή αληθοφανούς περιεχομένου, η οποία θα μπορούσε να οδηγήσει σε εκτεταμένες εκστρατείες παραπληροφόρησης και χειραγώγησης της κοινής γνώμης.
Παράλληλα,  η ικανότητα της τεχνητής νοημοσύνης να μαθαίνει, να εμπεδώνει και να τελειοποιεί λειτουργίες σταδιακά θα οδηγήσει στην εξάλειψη του ανθρώπινου παράγοντα σε ορισμένους τομείς και στην εξαφάνιση κάποιων επαγγελμάτων όπως τα γνωρίζουμε σήμερα.
Αυτά, βέβαια, δεν είναι φαινόμενα που συμβαίνουν για πρώτη φορά. Ολόκληρη η ιστορία της τεχνολογίας συνδέεται με την εξαφάνιση παραδοσιακών επαγγελμάτων και την ανάδυση νέων, όμως το ζήτημα της παραπληροφόρησης αφορά διαχρονικά τα μέσα μαζικής ενημέρωσης και την ανεξαρτησία του τύπου στο κράτος δικαίου. Στις μεγάλες προκλήσεις που βάζει μπροστά μας η τεχνητή νοημοσύνη, το ζήτημα είναι αν θα υπάρξει θεσμική απάντηση και ποια θα είναι αυτή.
photo-1531938273339-caac37a7f620.avif

Η επόμενη μέρα

Πριν μερικούς μήνες ψηφίστηκε στον Καναδά ένας κώδικας δεοντολογίας για τις επιχειρήσεις που χρησιμοποιούν την τεχνητή νοημοσύνη, με σκοπό να χρησιμοποιηθεί σαν χάρτης ηθικής συμπεριφοράς.
Παρότι ο κώδικας αυτός ήρθε σαν αποτέλεσμα μιας γενικευμένης απαίτησης για την ύπαρξή του, έγινε δεκτός με μεικτά συναισθήματα και μουδιασμένες αντιδράσεις. Ο λόγος είναι ότι δεν έχει νομικά δεσμευτικό χαρακτήρα αλλά η υιοθέτησή του είναι προαιρετική και εναπόκειται στη διακριτική ευχέρεια κάθε εταιρείας. Μπορούμε, όμως, να επαναπαυτούμε στη συνείδηση και το αίσθημα κοινωνικής ευθύνης των μεγάλων εταιρειών χωρίς ένα νομοθετικό πλαίσιο που θα οριοθετεί τη νομιμότητα των δραστηριοτήτων τους;
Το κακό σενάριο είναι να οδηγηθούμε σε μια κούρσα άκρατου ανταγωνισμού όπου η τεχνητή νοημοσύνη θα χρησιμοποιείται σαν όπλο και θα εισάγει τεράστιους κινδύνους όχι μόνο για τη δημοκρατία και την ασφάλεια αλλά και για την ίδια την ανθρωπότητα. Μια νέα, εξελιγμένη μορφή ψυχρού πολέμου και ίσως ακόμα παραπέρα.
Το καλό σενάριο είναι ότι ο κανονισμός που θέσπισε το Ευρωκοινοβούλιο θα αποτελέσει το πρώτο βήμα προς ένα πλαίσιο ανάπτυξης με ελέγχους και περιορισμούς και ότι θα υπάρξουν παρόμοιες πρωτοβουλίες και εκτός Ευρώπης. Κάτι τέτοιο απαιτεί τη διαρκή επαγρύπνηση των θεσμικών οργάνων και τη συνεχή επικαιροποίηση των σχετικών διατάξεων.

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ