Διαμορφώνοντας το Μέλλον: Ηθικές Προκλήσεις στην Τεχνητή Νοημοσύνη και ο Κομβικός Ρόλος των Δεδομένων
Πρόσφατη έρευνα με τίτλο “Thousands of AI Authors on the Future of AI” έδειξε ότι τα τελευταία χρόνια υπάρχει μια θεμελιώδης και δυνητικά ανησυχητική αλλαγή στο χρονοδιάγραμμα της εξέλιξης της Τεχνητής Νοημοσύνης. Σύμφωνα με τους Katja Grace και συναδέλφους από το Berkley University της Καλιφόρνια, το 2023 υπήρξε κομβικό. Το εκτεταμένο ενδιαφέρον και η πρόοδος αναφορικά με τη θεωρητική γνώση και τις εφαρμοσμένες λύσεις ΤΝ έφερε πιο κοντά το χρονικό σημείο στο οποίο η ΤΝ θα υπερτερεί του ανθρώπινου παράγοντα στην υλοποίηση μιας ευρείας λίστας καθημερινών εργασιών. Το 2016, είχε προβλεφθεί ότι η υπεροχή της ΤΝ έναντι του ανθρώπινου παράγοντα στην υλοποίηση όλων των εργασιών που καλείται να φέρει εις πέρας ο άνθρωπος, από την ανάγνωση και επεξήγηση γραπτού λόγου στο να δημιουργεί περιεχόμενο όπως στίχους τραγουδιών και πίνακες ζωγραφικής και στη συνεισφορά σε βασική έρευνα, θα γινόταν αισθητή το έτος 2061. Το 2022, η πρόβλεψη αυτή αναθεωρήθηκε μόλις κατά ένα έτος και το εν λόγω χρονικό σημείο αντιστοιχούσε στο 2060. Αυτό που παρουσιάζει ιδιαίτερο ενδιαφέρον, βέβαια, είναι η πρόβλεψη ότι με βάση την πρόοδο που σημειώθηκε το περασμένο έτος, η ανθρωπότητα θα δει διάφορες μορφές ΤΝ να πραγματοποιούν πιο επιτυχημένα την πλειονότητα των εργασιών που παραδοσιακά λάμβαναν χώρα από ανθρώπους το 2047. Δυνητικά, η έρευνα καταλήγει, υπάρχει 10% πιθανότητα το σημείο αυτό να επιτευχθεί το 2027.
Όλα αυτά τα στοιχεία συνηγορούν στη δημιουργία ερωτημάτων αναφορικά με το τι μπορεί να υποστηρίξει μια τέτοια πρόβλεψη και πιο σημαντικά, πώς μπορεί να διαφυλαχθεί η ουσιαστική αλληλεπίδραση μεταξύ των ανθρώπων και η ηθική χρήση των ανερχόμενων λύσεων ΤΝ από ιδιώτες και επιχειρήσεις (Ζοπουνίδης, Κ. & Κωστής, Α., 2023, Πλοήγηση στο τοπίο της Γενετικής/Δημιουργικής Τεχνητής Νοημοσύνης, Οικονομικός Ταχυδρόμος, 03.07.2023).
Στο παρόν άρθρο επιχειρούμε μια πρώτη ανάλυση των παραπάνω. Αρχικά, να αναφέρουμε ότι βλέπουμε τα δεδομένα που συλλέγουν και κατέχουν ιδιώτες και επιχειρήσεις ως κινητήριο μοχλό της ανάπτυξης λύσεων ΤΝ. Ως εκ τούτου, υποστηρίζουμε ότι ο τρόπος με τον οποίο θα διαφυλαχθεί η ηθική χρήση ΤΝ είναι άρρηκτα συνδεδεμένος με το πώς τα δεδομένα αυτά συλλέγονται, επεξεργάζονται και διαμοιράζονται. Ας πάρουμε για παράδειγμα τα λεγόμενα εξατομικευμένα GPTs, που πρόσφατα ανακοίνωσε η OpenAI, η εταιρεία πίσω από το ChatGPT. Από την επόμενη εβδομάδα κιόλας, θα υπάρξει διαθέσιμο το GPT Store, το οποίο με απλά λόγια θα λειτουργεί με παρόμοιο τρόπο όπως το AppStore της Apple ή το Play Store της Google. Ουσιαστικά, οι χρήστες θα έχουν τη δυνατότητα να δημιουργούν τα δικά τους εξατομικευμένα GPTs (λειτουργία που υπάρχει ήδη) και να τα διαμοιράζονται με άλλους στο λεγόμενο GPT Store. Η βασική διαφορά του Chat GPT-4 με τα εξατομικευμένα GPTs που θα δημιουργούν οι χρήστες είναι ότι θα υπάρχει η δυνατότητα οι χρήστες να παρέχουν στο μοντέλο Γενετικής/Δημιουργικής ΤΝ δεδομένα με βάση τα οποία θα γίνεται πιο εξατομικευμένη εκπαίδευση σε συγκεκριμένες εργασίες. Για παράδειγμα, εκπαιδευτικοί που χρησιμοποιούν το GPT-4 για δημιουργία εκπαιδευτικού υλικού, θα μπορούν να δημιουργούν και να χρησιμοποιούν τα δικά τους εξατομικευμένα GPTs και θα τα εκπαιδεύουν με βάση τα βιβλία που χρησιμοποιούν και το υλικό που κατέχουν και αναγνωρίζουν ως γνώση.
Αν αναλογισθεί κανείς το παραπάνω παράδειγμα, μπορεί να αντιληφθεί τον κομβικό ρόλο που έχουν τα δεδομένα στα αποτελέσματα που παρέχουν τα μοντέλα Γενετικής ΤΝ. Επομένως, βλέπουμε ως βασική προϋπόθεση για ηθική χρήση της Γενετικής ΤΝ (και ίσως μοναδική ευκαιρία) την εδραίωση μηχανισμών που θα καθοδηγούν τις διαδικασίες που απαιτούνται ώστε τα δεδομένα να ρέουν με ουσιαστικές δικλείδες ασφαλείας ανάμεσα σε ανθρώπους και οργανισμούς, ακόμη και μεταξύ τεχνολογικών συστημάτων.
Σίγουρα, η κίνηση των New York Times να κινηθούν νομικά εναντίον της OpenAI και της Microsoft (στις 27 Δεκεμβρίου 2023) λόγω της χρήσης δεδομένων του εκδοτικού οίκου χωρίς συγκατάθεση για να εκπαιδεύσουν τα μοντέλα ΤΝ που δημιούργησαν οι δύο εταιρείες, είναι η πιο θορυβώδης και δυνητικά καθοριστική διαμάχη. Οι New York Times θέτουν ζήτημα μη ηθικής χρήσης copyright υλικού και ζητούν από τους δύο τεχνολογικούς κολοσσούς να σταματήσουν να εκπαιδεύουν τα μοντέλα ΤΝ τους με αυτό το υλικό και να καταστρέψουν το υλικό από τα συστήματά τους. Ίσως, αυτή να είναι η κορυφή του παγόβουνου αλλά πιο σημαντικά, η διαμάχη τονίζει την ανάγκη για περισσότερη προσοχή στους τρόπους με τους οποίους πραγματοποιείται πρόσβαση σε δεδομένα και εκμάθηση μοντέλων Γενετικής ΤΝ.
Βασισμένοι στα παραπάνω, για να υπάρξει συνέχεια της προόδου που έχει σημειωθεί έως τώρα, υπογραμμίζουμε την ανάγκη για θεσμικές και επιχειρηματικές πρωτοβουλίες για τη δίκαιη, ηθική και απρόσκοπτη ροή δεδομένων που θα επιτρέπει ασφαλή εκμάθηση μοντέλων Γενετικής ΤΝ. Παράλληλα, όλες οι επιχειρήσεις θα πρέπει να αναπτύξουν στρατηγική δεδομένων για ΤΝ και να υλοποιήσουν οργανωσιακές αλλαγές που απαιτούνται (Ζοπουνίδης, Κ. & Κωστής, Α., 2022, Επιστήμη Δεδομένων και Τεχνητή Νοημοσύνη υπό τη μορφή ενός Σχεσιακού Πρίσματος, Οικονομικός Ταχυδρόμος, 14.09.2022).
Καθηγητής Κωνσταντίνος Ζοπουνίδης, Ακαδημαϊκός Πολυτεχνείο Κρήτης Επίτιμος Δρ. ΑΠΘ
Δρ. Άγγελος Κωστής
Wallander Research Fellow, Postdoctoral Researcher, SCANCOR, Stanford University, CA, Αμερική
Επίκουρος Καθηγητής, Umeå School of Business, Economics, & Statistics, Umeå University, Σουηδία
πηγή: flashnews