Ο διευθύνων σύμβουλος της Google, Sundar Pichai, παραδέχτηκε δημοσίως, μιλώντας στο 60 Minutes του CBS, ότι δεν «καταλαβαίνει πλήρως» το πώς λειτουργεί το νέο πρόγραμμα τεχνητής νοημοσύνης της εταιρείας του, το Bard, καθώς ζητήτματα και προβλήματα που το αφορούν εξακολουθούν να επιλύονται.
Ένα από τα μεγάλα προβλήματα που ανακαλύφθηκαν με τον Bard είναι κάτι που ο Pichai ονόμασε «αναδυόμενες ιδιότητες» ή συστήματα τεχνητής νοημοσύνης που διδάχθηκαν απρόβλεπτες δεξιότητες. Το πρόγραμμα τεχνητής νοημοσύνης της Google κατάφερε, για παράδειγμα, να μάθει τη γλώσσα του Μπαγκλαντές χωρίς καμία εκπαίδευση όταν του ζητήθηκε.
«Υπάρχει μια πτυχή αυτού που ονομάζουμε -όλοι εμείς στο πεδίο την αποκαλούμε “μαύρο κουτί”. Ξέρεις, δεν την καταλαβαίνουμε πλήρως», παραδέχτηκε ο Pichai. «Και δεν μπορείς να πεις γιατί το είπε αυτό ή γιατί έγινε λάθος. Έχουμε κάποιες ιδέες και η ικανότητά μας να το καταλαβαίνουμε όλο αυτό βελτιώνεται με την πάροδο του χρόνου. Αλλά βρισκόμαστε σε αυτό το στάδιο τώρα».
Ο παρουσιαστής της εκπομπής Scott Pelley εξεπλάγη από την απάντηση και ρώτησε: «Δεν καταλαβαίνετε πλήρως πώς λειτουργεί. Κι όμως, το έχετε παραδώσει ήδη στην κοινωνία;». «Ναι. Επιτρέψτε μου να το θέσω έτσι. Δεν νομίζω ότι καταλαβαίνουμε πλήρως ούτε πώς λειτουργεί ο ανθρώπινος νους», είπε ο Pichai. «Πρέπει να προσαρμοστούμε ως κοινωνία σε αυτό», τόνισε ο ίδιος, προσθέτοντας ότι οι θέσεις εργασίας που θα διαταραχθούν από την τεχνητή νοημοσύνη θα περιλαμβάνουν «εργαζομένους στον τομέα της γνώσης», συμπεριλαμβανομένων συγγραφέων, λογιστών, αρχιτεκτόνων και, κατά ειρωνικό τρόπο, ακόμη και μηχανικούς λογισμικού.
«Θα επηρεάσει κάθε προϊόν σε κάθε εταιρεία», ανέφερε επίσης ο διευθύνων σύμβουλος της Google. «Για παράδειγμα, αν είστε ακτινολόγος, σκεφτείτε τι θα μπορούσε να αλλάξει σε πέντε έως δέκα χρόνια από τώρα. Θα έχετε έναν συνεργάτη τεχνητής νοημοσύνης μαζί σας. Θα έρχεστε το πρωί, ας πούμε ότι έχετε εκατό πράγματα να περάσετε, και το σύστημα θα μπορούσε να σας πει, “αυτές είναι οι πιο σοβαρές περιπτώσεις που θα πρέπει να εξετάσετε πρώτα”».
Σε ένα από τα παραδείγματα που παρουσιάστηκαν στην εκπομπή, το σύστημα Bard συνέταξε σχεδόν αμέσως ένα οικονομικό δοκίμιο για τον πληθωρισμό, προτείνοντας πέντε βιβλία ως πηγές. Όμως, κανένα από αυτά δεν υπήρξαν, σύμφωνα με το CBS News. Στη βιομηχανία της τεχνολογίας, αυτού του είδους το σφάλμα ονομάζεται «ψευδαίσθηση».
Στη συνέντευξη, ο Pichai ήταν ξεκάθαρος σχετικά με τους κινδύνους της βιαστικής χρήσης της νέας τεχνολογίας. Είπε ότι η Google έχει «την επείγουσα ανάγκη να εργαστεί και να την αναπτύξει με ευεργετικό τρόπο, αλλά ταυτόχρονα μπορεί να είναι πολύ επιβλαβής εάν αναπτυχθεί λανθασμένα». Μάλιστα, ο Pichai παραδέχτηκε ότι αυτό είναι κάτι που τον ανησυχεί, ενώ τόνισε ότι η κλίμακα του προβλήματος της παραπληροφόρησης και των ψεύτικων ειδήσεων και εικόνων θα είναι «πολύ μεγαλύτερη», προσθέτοντας ότι «θα μπορούσε να προκαλέσει βλάβη»..
«Δεν έχουμε ακόμη όλες τις απαντήσεις εκεί και η τεχνολογία προχωρά γρήγορα», είπε. «Λοιπόν, αν αυτό με κρατάει ξύπνιο τη νύχτα; Απολύτως».
Ο Pichai είπε ακόμη ότι «κάθε προϊόν κάθε εταιρείας» θα επηρεαστεί από τη γρήγορη ανάπτυξη της τεχνητής νοημοσύνης, προειδοποιώντας ότι η κοινωνία πρέπει να προετοιμαστεί για τεχνολογίες όπως αυτές που έχει ήδη λανσάρει.
Τον περασμένο μήνα, το CNBC ανέφερε ότι ο Pichai είπε στους υπαλλήλους του ότι η επιτυχία του νέου προγράμματος Bard που ξεκίνησε τώρα εξαρτάται από τις δημόσιες δοκιμές, προσθέτοντας ότι «τα πράγματα κάποιες φορές θα πάνε στραβά».
Η Google παρουσίασε το chatbot AI Bard ως πειραματικό προϊόν στο κοινό τον περασμένο μήνα. Ακολούθησε την ανακοίνωση της Microsoft τον Ιανουάριο ότι η μηχανή αναζήτησής της Bing θα συμπεριλάμβανε την τεχνολογία GPT του OpenAI, η οποία κέρδισε τη διεθνή προσοχή μετά την κυκλοφορία του ChatGPT το 2022.
«Η ανταγωνιστική πίεση μεταξύ κολοσσών όπως η Google και νεοσύστατων επιχειρήσεων για τις οποίες μέχρι σήμερα δεν είχαμε ακούσει ποτέ για αυτές οδηγεί την ανθρωπότητα στο μέλλον, είτε είναι έτοιμη είτε όχι», σχολίασε ο Pelley κατά τη διάρκεια της συνέντευξης.
Η Google κυκλοφόρησε πρόσφατα ένα σημείωμα που περιέχει «συστάσεις για τον έλεγχο και τη ρύθμιση της τεχνητής νοημοσύνης», αλλά ο Pichai είπε ότι η κοινωνία πρέπει να προσαρμοστεί γρήγορα, καθώς και να θέσει κανόνες που να «ευθυγραμμίζονται με τις ανθρώπινες αξίες, συμπεριλαμβανομένης της ηθικής». «Δεν εναπόκειται σε μια εταιρεία να αποφασίσει», είπε ο Pichai. «Γι’ αυτό πιστεύω ότι η ανάπτυξη όλου αυτού πρέπει να περιλαμβάνει όχι μόνο μηχανικούς, αλλά και κοινωνικούς επιστήμονες, ηθικολόγους, φιλοσόφους και ούτω καθεξής».
Όταν ρωτήθηκε εάν η κοινωνία είναι προετοιμασμένη για την τεχνολογία όπως ο Bard, ο Pichai απάντησε: «Από τη μια πλευρά, αισθάνομαι ότι όχι, επειδή ο ρυθμός με τον οποίο μπορούμε να σκεφτόμαστε και να προσαρμοζόμαστε ως κοινωνικοί θεσμοί, σε σύγκριση με τον ρυθμό με τον οποίο εξελίσσεται η τεχνολογία, φαίνεται να είναι σε αναντιστοιχία».
Ωστόσο, πρόσθεσε ότι είναι αισιόδοξος γιατί σε σύγκριση με άλλες τεχνολογίες στο παρελθόν, «ο αριθμός των ανθρώπων που άρχισαν να ανησυχούν για τις επιπτώσεις» έχει δημιουργήσει όλες αυτές τις ανησυχίες πολύ νωρίς.
Ο Elon Musk και μια ομάδα ειδικών τεχνητής νοημοσύνης και στελέχη του κλάδου έχουν ζητήσει τις τελευταίες εβδομάδες μια εξάμηνη παύση στην ανάπτυξη συστημάτων πιο ισχυρών από το GPT-4 του OpenAI, σε ανοιχτή επιστολή, αναφέροντας πιθανούς κινδύνους για την κοινωνία. «Τα ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτυχθούν μόνο όταν είμαστε βέβαιοι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοι θα είναι διαχειρίσιμοι», ανέφερε η επιστολή που εκδόθηκε από το Future of Life Institute.
Πηγή: kourdistoportocali.com