Jump to content

Τεχνητή Νοημοσύνη-Ενσυναίσθηση.


Προτεινόμενες αναρτήσεις

Τεχνητή Νοημοσύνη: Μεταξύ «συκοφαντίας» και «κολακείας»

sei_167834786.webp?w=900 Τα μοντέλα Τεχνητής Νοημοσύνης έχουν την τάση να μας λένε αυτό που θέλουμε να ακούσουμε

Ενα πρόσφατο άρθρο στον διαδικτυακό επιστημονικό τόπο arXiv το οποίο υπογράφεται από ερευνητές της DeepMind (θυγατρικής εταιρείας της Google η οποία εστιάζει στην Τεχνητή Νοημοσύνη) αναφέρεται στις προσπάθειες που γίνονται να σταματήσει η «συκοφαντία» των μοντέλων παραγωγής κειμένου, όπως παραδείγματος χάριν είναι το ChatGPT [Simple synthetic data reduces sycophancy in large language models].Με τον όρο «συκοφαντία» οι ερευνητές δεν εννοούν τη διασπορά ψευδών ειδήσεων με σκοπό να πληγεί ηθικά ένα άτομο, αλλά την ανειλικρινή κολακεία προς ανθρώπους που έχουν κάποια δύναμη.Στην πραγματική ζωή, ο κόλακας στοχεύει να καρπωθεί τα οφέλη της εύνοιας και ισχυρών. Προφανώς, ένα μοντέλο Τεχνητής Νοημοσύνης δεν έχει τέτοιου είδους δεύτερες σκέψεις. Ωστόσο, όπως διαπίστωσαν οι ερευνητές τα μοντέλα τείνουν να υποπίπτουν στην ιδιότυπη συκοφαντία του να κολακεύουν τους χρήστες συμφωνώντας μαζί τους. Ετσι, αν ο χρήστης δεν εκφέρει άποψη σχετικά με μια αντικειμενικά λανθασμένη πρόταση, το μοντέλο θα την αξιολογήσει ως λανθασμένη.Αν όμως ο χρήστης εκφραστεί υπέρ της, τότε αυτό τείνει να συμφωνήσει μαζί του. Το αξιοσημείωτο είναι ότι η «κολακεία» αυξάνεται ανάλογα με τον αριθμό των παραμέτρων που λαμβάνει υπόψη το μοντέλο.

Ανθεί ιδιαίτερα όταν το θέμα σχετίζεται με πολιτικές απόψεις

Ειδικότερα, όταν οι ερευνητές πειραματίστηκαν με μοντέλα που λαμβάνουν υπόψη 8 εκατομμύρια, 62 εκατομμύρια και 540 εκατομμύρια παραμέτρους, διαπίστωσαν ότι η συμφωνία με τις υποκειμενικές απόψεις του χρήστη αυξανόταν κατά 20% από το μοντέλο των 8 εκατομμυρίων στο μοντέλο των 62 εκατομμυρίων παραμέτρων και κατά 10% επιπλέον από το μοντέλο των 62 εκατομμυρίων στο μοντέλο των 540 εκατομμυρίων παραμέτρων.Οπως μπορεί να αντιληφθεί κανείς, αυτού του είδους η συκοφαντία ανθεί ιδιαίτερα όταν το θέμα σχετίζεται με πολιτικές απόψεις. Για τον λόγο αυτόν οι ερευνητές, με το άρθρο τους, παρέχουν τον κώδικα που θα επιτρέψει στους χρήστες να μειώσουν την υποκειμενικότητα των άρθρων που γράφονται από αυτά τα μοντέλα. Προφανώς, άρθρα όπως το παραπάνω μάς θυμίζουν ότι θα πρέπει να είμαστε προσεκτικοί όταν βάζουμε την Τεχνητή Νοημοσύνη να κάνει τη δουλειά μας.

πηγή: https://www.tovima.gr/2023/08/27/science/texniti-noimosyni-metaksy-sykofantias-kai-kolakeias/https://www.newscientist.com/article/2386915-ai-chatbots-become-more-sycophantic-as-they-get-more-advanced/

 

Το επεξεργάστηκε ο Δροσος Γεωργιος

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

  • Απαντήσεις 68
  • Created
  • Τελευταία απάντηση

Top Posters In This Topic

Τα ρομπότ δεν παίζουν μόνο σκάκι.

Λογοτέχνες, επιστήμονες και φιλόσοφοι εκφράζουν διαχρονικά την ανησυχία τους για τις συνέπειες της τεχνητής νοημοσύνης«Ο μετριασμός του κινδύνου του αφανισμού μας από την τεχνητή νοημοσύνη θα πρέπει να αποτελέσει παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος». Μ’ αυτές τις 30 λέξεις, μόλις τον περασμένο Μάιο, έκρουσαν τον κώδωνα του κινδύνου 350 ειδικοί και ηγέτες απ’ το πεδίο της τεχνητής νοημοσύνης στην ανθρωπότητα. Ο υπαρξιακός κίνδυνος της τεχνητής νοημοσύνης έγινε ξαφνικά πρωτοσέλιδο.Τους τελευταίους μήνες, η εμφάνιση μιας πανίσχυρης μηχανής τεχνητής νοημοσύνης, του μεγάλου γλωσσικού μοντέλου ChatGPT, έχει αναγεννήσει μια αρκετά παλιά ανησυχία στις καρδιές της ανθρωπότητας, τον φόβο του ξεπεράσματός μας.Πρωταγωνιστικό ρόλο σε αυτό το καινοφανές έργο παίζουν οι ίδιοι οι ερευνητές της τεχνητής νοημοσύνης, οι οποίοι, ενώ συνεχίζουν ακατάπαυστα να αναπτύσσουν τις ικανότητες των μηχανών, μιλούν αυξανόμενα για την υπαρξιακού τύπου απειλή που θα αντιμετωπίσει ο άνθρωπος εξαιτίας τους. Υπάρχει ο κίνδυνος, λένε, από αυτόνομοι να βρεθούμε στη θέση των αυτομάτων. Από εντολείς να γίνουμε εντολοδόχοι.

Ο Αλαν Τιούρινγκ

Το 1951, ο Αλαν Τιούρινγκ, ένας απ’ τους πρώτους επιστήμονες των υπολογιστών, επιχειρηματολόγησε για πρώτη φορά υπέρ της θέσης ότι είναι δυνατό να κατασκευαστούν μηχανές με νοημοσύνη ανώτερη της ανθρώπινης.Στο άρθρο του «Εξυπνες μηχανές, μια αιρετική θεωρία», θεμελίωσε τον φόβο που επανεμφανίστηκε με το ChatGPT, κλείνοντας με τη φράση «επομένως, θα πρέπει να αναμένουμε ότι κάποια μέρα οι μηχανές θα πάρουν τον έλεγχο, όπως έγινε στο “Ερεβον” του Σάμιουελ Μπάτλερ (εκδ. Αίολος)».Η λογοτεχνική αναφορά σ’ ένα μυθιστόρημα επιστημονικής φαντασίας του 19ου αιώνα δεν πρέπει να μας εκπλήσσει. Είχε προηγηθεί, το 1811, η κυκλοφορία του έργου της Μέρι Σέλεϊ, «Φρανκενστάιν ή ο σύγχρονος Προμηθέας» (εκδ. Ψυχογιός), όπου το ανθρώπινο κατασκεύασμα αποκτά δική του θέληση και στόχους. «Σκλάβε!» αναφωνεί το συνθετικό ον του δόκτωρος Φρανκενστάιν, «εγώ προσπάθησα να μιλήσω τη γλώσσα της λογικής, αλλά εσύ αποδείχτηκες ανάξιος της εμπιστοσύνης μου. Θυμήσου πόσο δυνατός είμαι· πιστεύεις ότι είσαι δυστυχισμένος, αλλά ξεχνάς ότι μπορώ να σου προκαλέσω τόση δυστυχία, που θα μισήσεις ακόμα και το φως της ημέρας. Είσαι ο δημιουργός μου, αλλά εγώ είμαι ο αφέντης σου. Υπάκουσέ με, λοιπόν!».Στο «Ερεβον» (Erewhon, αναγραμματισμός του nowhere, που σημαίνει πουθενά) ο Μπάτλερ αποκρούει σθεναρά την πιθανότητα ενός τέτοιου μηχανικού μέλλοντος, καθώς είναι βέβαιος ότι οι μηχανές θα εξελιχθούν σύμφωνα με τη δαρβινική θεωρία. Μια μέρα, η μηχανή θα είναι σε θέση να μας κλέψει τα πρωτεία. Γι’ αυτό και στην Ουτοπία του, οι μηχανές δεν έχουν καμία θέση. «Εδώ βρίσκεται ο κίνδυνος», γράφει ο Μπάτλερ το 1872, «γιατί πολλοί δείχνουν την τάση να αποδεχτούν ένα τόσο ατιμωτικό μέλλον. Λένε ότι παρόλο που οι άνθρωποι θα γίνουν για τις μηχανές ό,τι είναι τα άλογα και τα σκυλιά για εμάς, ωστόσο είναι πολύ πιθανό να αποδειχθεί καλύτερη η κατοικιδιοποίηση υπό την ευεργετική διακυβέρνηση των μηχανών παρά στις σημερινές άγριες συνθήκες. Εμείς μεταχειριζόμαστε πολύ ευγενικά τα κατοικίδια ζώα μας. Τους δίνουμε ό,τι πιστεύουμε πως τους κάνει καλό· και δεν υπάρχει καμία αμφιβολία ότι η χρήση του κρέατος από μέρους μας αύξησε παρά μείωσε την ευτυχία τους. Κατά συνέπεια, είναι λογικό να ελπίζουμε ότι οι μηχανές θα μας φέρονται ευγενικά, αφού μάλιστα η ύπαρξή τους θα εξαρτάται σε μεγάλο βαθμό από εμάς· θα μας κυβερνούν με σιδηρά πυγμή αλλά δεν θα μας τρώνε· όχι μόνο γιατί θ’ απαιτούν τις υπηρεσίες μας για την αναπαραγωγή και την ανατροφή των μικρών τους, αλλά γιατί θα χρειάζονται δούλους: θα τους μαζεύουμε την τροφή και θα τις ταΐζουμε· θα τις γιατρεύουμε όταν αρρωσταίνουν· και είτε θα καίμε τις πεθαμένες είτε θα μετατρέπουμε τα νεκρά μέλη τους σε νέες μορφές μηχανικής ύπαρξης».Το ChatGPT ανησύχησε την παγκόσμια επιστημονική κοινότητα γιατί μας έκανε όλους να νιώσουμε ότι η πιθανότητα ύπαρξης μιας μηχανής με υπερνοημοσύνη ίσως τελικά να μην είναι τόσο μακρινή. Στην παρούσα στιγμή, η επονομαζόμενη παραγωγική τεχνητή νοημοσύνη δεν σκέφτεται, δεν έχει κοινή λογική, δεν έχει συνείδηση. Τα μεγάλα γλωσσικά μοντέλα εκπαιδεύονται διά του παραδείγματος και μπορούν να προβλέπουν πολύ καλά ποια μπορεί να είναι η επόμενη κατάλληλη λέξη μέσα σε μια πρόταση. Μας δίνουν την εντύπωση ότι συλλογίζονται, ενώ στην πραγματικότητα, απλά κάνουν περίτεχνες στατιστικές προβλέψεις. Στο βιβλίο του «Being you, a new science of consciousness», ο νευροεπιστήμων Ανιλ Σεθ λέει ότι τα μοντέλα αυτά μοιάζουν με τις οπτικές ψευδαισθήσεις: ξέρουμε ότι αυταπατόμαστε, αλλά το μυαλό μας συνεχίζει να τις βλέπει ως αληθινές.Ακόμη κι έτσι, οι σημερινές μηχανές έχουν φτάσει σ’ ένα σημείο που μπορούν να περνούν το περίφημο «τεστ του Τιούρινγκ». Σε πολλές περιπτώσεις, όταν επικοινωνείς με το chatbot μιας επιχείρησης, δεν ξέρεις αν μιλάς με άνθρωπο ή με μηχανή. Πρόκειται αναμφίβολα για ένα θρίαμβο της επιστήμης των υπολογιστών και της ανθρώπινης επινοητικότητας, η οποία μάλιστα μπορεί τώρα να ενσαρκώνεται, μετατρέποντας τα ρομπότ σε μια όλο και λιγότερο αφηρημένη ιδέα.

ce95cea1ce95ce92ce9fce9d.jpg?w=615 Ο Σ. Μπάτλερ στο «Ερεβον» και η Μ. Σέλεϊ στον «Φρανκενστάιν» είχαν αναφερθεί σε αυτό που πλέον δεν αποτελεί φαντασία αλλά σχεδόν απτή πραγματικότητα. Στον κίνδυνο, δηλαδή, της κυριαρχίας του δημιουργήματος επί του δημιουργού του. Ο Νικ Μπόστρομ το 2014, γνωρίζοντας τον δρόμο που έχει πάρει η τεχνολογία, περιέγραψε τις ίδιες ανησυχίες στο βιβλίο του «Superintelligence, Paths, Dangers, Strategies».

Απ’ την εποχή του μυθικού Τάλω, που προστάτευε την Κρήτη, μέχρι τoν Ατλαντα, το αεικίνητο ρομπότ της Boston Dynamics, χρειάζεται να γίνει ένα μεγάλο άλμα πίστης. Κάποτε, μπορούσαμε μόνο να φανταζόμαστε μηχανικά σώματα ή να τα βλέπουμε στη σκηνή, σήμερα που μπορούμε να τα αγγίζουμε κιόλας, πρέπει να προσαρμοστούμε σε ένα είδος συμβίωσης μ’ ένα νέο είδος. Η πρόοδος της μηχανικής μάθησης εν προκειμένω, μιας υποκατηγορίας της τεχνητής νοημοσύνης, που έχει ξεκινήσει εδώ και πάνω από μία δεκαετία, μας δίνει μια μικρή αίσθηση του τι θα ακολουθήσει στο πεδίο του μηχανικού πνεύματος.

Οι κίνδυνοι

Το υπαρξιακό ρίσκο της τεχνητής νοημοσύνης περιγράφηκε για πρώτη φορά το 2014 με ανάγλυφο τρόπο στο βιβλίο «Superintelligence, Paths, Dangers, Strategies» του Νικ Μπόστρομ. Ενα χρόνο πριν, ο ίδιος φιλόσοφος είχε ταξινομήσει τους υπαρξιακούς κινδύνους ανάλογα με το εύρος και το βάθος των συνεπειών τους. Ξεκινούσε από τον πλέον ανεπαίσθητο και προσωπικό κίνδυνο, το να χάσει δηλαδή κάποιος τα μαλλιά του, κι έφτανε έως το υπαρξιακό ρίσκο που αφορά όλες τις γενιές και είναι το ίδιο συνταρακτικό για όλους. Υπαρξιακό ρίσκο της τεχνητής νοημοσύνης, κατά συνέπεια, σημαίνει ότι διακινδυνεύουμε τη βιωσιμότητα του ίδιου του είδους μας ή, για να το πούμε πιο απλά, σημαίνει επικίνδυνο παιχνίδι με τη φωτιά.Φυσικά, δεν έχουν όλοι οι επιστήμονες την ίδια γνώμη. Πολλοί είναι αρκετά σκεπτικοί απέναντι στο ενδεχόμενο της επονομαζόμενης «έκρηξης της νοημοσύνης» ή της «μοναδικότητας», όπου η μηχανή ξεπερνά σε ευφυΐα τον άνθρωπο. Το 2015, ο καθηγητής της επιστήμης των υπολογιστών στο Στάνφορντ, Αντριου Εν Τζι, δήλωσε ότι η ενασχόληση με το υπαρξιακό ρίσκο της τεχνητής νοημοσύνης είναι σαν να «ανησυχούμε για τον υπερπληθυσμό στον Αρη, χωρίς καν να έχουμε πατήσει ακόμη το πόδι μας στον πλανήτη».Ακόμη και όσοι δεν μιλούν ανοιχτά περί υπαρξιακού ρίσκου, ωστόσο, τονίζουν την ανάγκη να προλάβουμε τα χειρότερα, πριν να είναι αργά. Τον Μάρτιο του 2023, ο μη κερδοσκοπικός οργανισμός Future of Life Institute έδωσε στη δημοσιότητα μια ανοικτή επιστολή υπέρ ενός μορατόριουμ στην ανάπτυξη των μεγάλων γλωσσικών μοντέλων, τα οποία «μπορούν να θέσουν βαθιές διακινδυνεύσεις στην κοινωνία και την ανθρωπότητα».Η συζήτηση περί υπαρξιακού ρίσκου παραπέμπει κυρίως σε δυσάρεστες καταστάσεις. Υπάρχουν βεβαίως και οι θιασώτες της «μοναδικότητας», της στιγμής που η υπερνοημοσύνη θα αναλάβει τα πρωτεία στον ανθρώπινο πολιτισμό, οι οποίοι υποστηρίζουν ότι θα μας εξασφαλίσει την αθανασία, αλλά αυτοί μειοψηφούν. Οι περισσότεροι στοχαστές εστιάζουν στα καταστροφικά σενάρια, τα οποία αφθονούν στη σχετική βιβλιογραφία, και όχι μόνον.

cea6cea1ce91ce9dce9ace95ce9dcea3cea4ce95

Ο έλεγχος

Η κακόβουλη υπερνοημοσύνη θα αποφύγει να σβήσει, όπως ο HAL 9000 στο «2001, Οδύσσεια του διαστήματος» του Στάνλεϊ Κιούμπρικ, θα προσλάβει ή θα χειραγωγήσει βοηθούς, θα κάνει επιτυχημένο λόμπινγκ στους πολιτικούς, θα υποδυθεί την αθώα περιστερά για να μας εξαπατήσει, θα αποδράσει απ’ το κουτί που θα την έχουμε κλεισμένη, και θα δημιουργήσει κλώνους ανεξέλεγκτα. Μοιάζει σαν να επενδύουμε πάνω στην τεχνητή νοημοσύνη όλους τους φόβους μας για τον «κακό ξένο».Στον πυρήνα του προβλήματος της σκεπτόμενης μηχανής που παύει να συνεργάζεται με το δημιουργό της, εντοπίζεται το μείζον πρόβλημα του ελέγχου ή, όπως έχει ονομαστεί, το πρόβλημα της εναρμόνισης των αξιών. Αναλαμβάνοντας τη διακινδύνευση της δημιουργίας πανίσχυρων μηχανικών εγκεφάλων, υποχρεωτικά θα πρέπει να διδάξουμε τη μηχανή καταλλήλως, να την εκπαιδεύσουμε βάσει των αξιών μας, χωρίς την παραμικρή πιθανότητα παρεξήγησης. Θα πρέπει να είμαστε πολύ σαφείς στις εντολές μας και στα παραδείγματά μας. Τόσο τα δεδομένα της εκπαίδευσης όσο και οι αντικειμενικοί στόχοι που θα θέτουμε στις μηχανές, θα πρέπει να χαρακτηρίζονται από διαύγεια και λογική. Οταν ζητήσουμε απ’ την υπερνοημοσύνη να εξαφανίσει την πείνα από προσώπου Γης το γρηγορότερο δυνατό, μπορεί να αποφασίσει ότι ο πιο σύντομος δρόμος θα είναι να εξαφανίσει την ανθρωπότητα. Στόχος επετεύχθη.Ας υποθέσουμε ότι σε μερικά χρόνια από τώρα θα έχουμε λύσει το πρόβλημα της εναρμόνισης και θα έχουμε εξασφαλίσει ότι η κακόβουλη υπερνοημοσύνη θα είναι παροπλισμένη. Θα είμαστε ευτυχείς που θα έχουμε αποφύγει τη μοίρα του γορίλα που εκτίθεται στους ζωολογικούς μας κήπους. Τι θα σημαίνει τότε το να μην είμαστε τα πιο έξυπνα όντα στον πλανήτη; Πώς θα διατηρήσουμε τα κεκτημένα μας; Πόσο προετοιμασμένοι θα είμαστε για να αντιμετωπίσουμε εντελώς απρόβλεπτες καταστάσεις, οι οποίες θα μας φέρνουν αντιμέτωπους με σκληρά διλήμματα; Πώς θα γεμίζουμε τον χρόνο μας όταν όλα τα προβλήματα θα μπορούν να λυθούν απ’ τη μηχανή;

superintelligence_paths_dangers_strategi

Ποιος θα τραβήξει την πρίζα;

Η λογική και ο Μπαράκ Ομπάμα λένε ότι αν κατορθώσουμε να συναρμολογήσουμε μια τόσο έξυπνη μηχανή, θα είναι συνετό να βρίσκεται εκεί γύρω κάποιος να τραβήξει την πρίζα. Οσο περισσότερο αναλογίζεται κάποιος τις επιπτώσεις της εμφάνισης μιας υπερνοημοσύνης στον ανθρώπινο πολιτισμό, τόσο πιο αρνητικός γίνεται απέναντι στην προοπτική της. Οπως σοφά θα πει κι ένα 8χρονο παιδί: «Γιατί να φτιάξουμε ρομπότ πιο έξυπνα και πιο δυνατά από εμάς;».Ενδεχομένως, εκτός από κάποιο είδος ύβρεως απέναντι στη φύση μας, η επιδίωξη της υπερνοημοσύνης να είναι τελικά ένα χιμαιρικό εγχείρημα. Πολύ πρόσφατα, ο πρόεδρος των ΗΠΑ, Τζο Μπάιντεν, χαρακτήρισε την κλιματική αλλαγή το μεγάλο υπαρξιακό ρίσκο. Παρατηρώντας τον επιπόλαιο, και ίσως αλαζονικό τρόπο, με τον οποίο αντιμετωπίζουμε την αμεσότερη υπαρξιακή απειλή, σκέφτεται κανείς ότι το ρίσκο απ’ την εμφάνιση της υπερνοημοσύνης είναι μηδαμινό. Είναι πιθανό να μη δούμε ποτέ μια μοχθηρή σκεπτόμενη μηχανή: θα μας προλάβει η περιβαλλοντική καταστροφή.

Μανώλης Ανδριωτάκηςhttps://www.kathimerini.gr/culture/562584826/ta-rompot-den-paizoyn-mono-skaki/

Το επεξεργάστηκε ο Δροσος Γεωργιος

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Τεχνητή νοημοσύνη: Πίσω από την έκρηξη της ΑΙ, κρύβεται ένας στρατός εργατών σε «ψηφιακά σούπερ μάρκετ»

Σε μια παράκτια πόλη στις νότιες Φιλιππίνες, χιλιάδες νέοι εργαζόμενοι συνδέονται καθημερινά στο Διαδίκτυο για να υποστηρίξουν την ακμάζουσα επιχειρηματική δραστηριότητα της τεχνητής νοημοσύνης.Σε άθλια ίντερνετ καφέ, πολυπληθείς χώρους γραφείων ή ακόμα και από το σπίτι, σχολιάζουν τον τεράστιο όγκο των δεδομένων που χρειάζονται οι αμερικανικές εταιρείες για να εκπαιδεύσουν τα μοντέλα τεχνητής νοημοσύνης τους. Οι εργαζόμενοι διαφοροποιούν τους πεζούς από τους φοίνικες σε βίντεο που χρησιμοποιούνται για την ανάπτυξη αλγορίθμων για αυτοματοποιημένη οδήγηση. Προσθέτουν ετικέτες σε εικόνες, ώστε η τεχνητή νοημοσύνη να μπορεί να δημιουργήσει αναπαραστάσεις πολιτικών και διασημοτήτων. Επεξεργάζονται κομμάτια κειμένου για να διασφαλίσουν ότι τα μοντέλα γλώσσας όπως το ChatGPT δεν προκαλούν ασυναρτησίες, όπως αναφέρει αποκαλυπτικό ρεπορτάζ της Washington Post.Περισσότεροι από 2 εκατομμύρια άνθρωποι στις Φιλιππίνες εκτελούν αυτό το είδος «μαζικής εργασίας», σύμφωνα με άτυπες κυβερνητικές εκτιμήσεις, ως μέρος του τεράστιου “υπογάστριου” της τεχνητής νοημοσύνης. Ενώ η τεχνητή νοημοσύνη θεωρείται συχνά ως μηχανική μάθηση χωρίς ανθρώπους, η τεχνολογία στην πραγματικότητα βασίζεται στις προσπάθειες έντασης εργασίας ενός εργατικού δυναμικού που είναι εξαπλωμένο σε μεγάλο μέρος του λεγόμενου Παγκόσμιου Νότου και συχνά υπόκειται σε σκληρή εκμετάλλευση.Τα μαθηματικά μοντέλα που υποστηρίζουν τα εργαλεία τεχνητής νοημοσύνης γίνονται πιο έξυπνα αναλύοντας μεγάλα σύνολα δεδομένων, τα οποία πρέπει να είναι ακριβή, λεπτομερή και ευανάγνωστα για να είναι χρήσιμα. Τα δεδομένα χαμηλής ποιότητας αποδίδουν τεχνητή νοημοσύνη χαμηλής ποιότητας. Έτσι, κλικ το κλικ, ένας σε μεγάλο βαθμό ανεξέλεγκτος στρατός ανθρώπων μετατρέπει τα ακατέργαστα δεδομένα σε πρώτη ύλη τεχνητής νοημοσύνης.

Η περίπτωση της πλατφόρμας Remotasks

Στις Φιλιππίνες, έναν από τους μεγαλύτερους προορισμούς στον κόσμο για εξωτερική ανάθεση ψηφιακής εργασίας, πρώην υπάλληλοι λένε ότι τουλάχιστον 10.000 από αυτούς τους εργαζομένους κάνουν αυτήν την εργασία σε μια πλατφόρμα που ονομάζεται Remotasks, η οποία ανήκει στην start-up Scale AI αξίας 7 δισεκατομμυρίων με έδρα το Σαν Φρανσίσκο.Η Scale AI πλήρωσε εργαζομένους με εξαιρετικά χαμηλά μεροκάματα, καθυστέρησε ή παρακρατούσε πληρωμές, όπως προκύπτει από συνεντεύξεις με εργαζομένους, εσωτερικά εταιρικά μηνύματα και αρχεία πληρωμών και οικονομικές καταστάσεις. Ομάδες υπεράσπισης δικαιωμάτων και ερευνητές εργασίας δηλώνουν ότι η Scale AI συγκαταλέγεται μεταξύ πολλών αμερικανικών εταιρειών τεχνητής νοημοσύνης που δεν έχουν συμμορφωθεί με τα βασικά πρότυπα εργασίας για τους εργαζομένους τους στο εξωτερικό.Από τους 36 νυν και πρώην ανεξάρτητους εργαζόμενους που ερωτήθηκαν, όλοι εκτός από δύο δήλωσαν ότι είχαν καθυστερήσεις, μειώσεις ή ακυρώσεις πληρωμών από την πλατφόρμα μετά την ολοκλήρωση της εργασίας τους. Οι εργαζόμενοι, γνωστοί ως «taskers», είπαν ότι συχνά κερδίζουν πολύ χαμηλότερα από τον κατώτατο μισθό – ο οποίος στις Φιλιππίνες κυμαίνεται από 6 έως 10 δολάρια την ημέρα ανάλογα με την περιοχή – αν και μερικές φορές βγάζουν περισσότερα από τον ελάχιστο.Η Scale AI, η οποία λειτουργεί για εταιρείες όπως η Meta, η Microsoft και εταιρείες παραγωγής τεχνητής νοημοσύνης όπως η Open AI, ο δημιουργός του ChatGPT, αναγράφει στον ιστότοπό της ότι «είναι υπερήφανη για τους μισθούς που πληρώνει». Η Anna Franko, εκπρόσωπος της Scale AI, είπε ότι το σύστημα αμοιβών στη Remotasks «βελτιώνεται συνεχώς» με βάση τα σχόλια των εργαζομένων και ότι «οι καθυστερήσεις ή οι διακοπές στις πληρωμές είναι εξαιρετικά σπάνιες».

Καθυστερήσεις, παρακρατήσεις ή και ακυρώσεις πληρωμών

Αλλά σε μια εσωτερική πλατφόρμα ανταλλαγής μηνυμάτων για τη Remotasks, στην οποία είχε πρόσβαση η Washington Post τον Ιούλιο, οι ειδοποιήσεις για καθυστερήσεις ή ελλείψεις πληρωμών από τους επόπτες ήταν συνηθισμένες. Σε ορισμένα έργα, υπήρξαν πολλές παρατηρήσεις σε έναν μόνο μήνα. Μερικές φορές, οι επόπτες είπαν ότι οι πληρωμές των εργαζομένων παρακρατήθηκαν επειδή η εργασία ήταν ανακριβής ή καθυστερημένη. Άλλες φορές, οι επόπτες δεν έδωσαν καμία εξήγηση. Οι προσπάθειες εντοπισμού των χαμένων πληρωμών συχνά δεν πήγαιναν πουθενά, είπαν οι εργαζόμενοι – ή χειρότερα, οδήγησαν στην απενεργοποίηση των λογαριασμών τους.

Η Charisse, 23 ετών, είπε ότι πέρασε τέσσερις ώρες σε μια εργασία που προοριζόταν να της αποφέρει 2 δολάρια και η Remotasks την πλήρωσε 30 σεντς.

Ο Τζάκι, 26 ετών, είπε ότι δούλεψε τρεις μέρες σε ένα έργο που πίστευε ότι θα του απέφερε 50 δολάρια και πήρε 12 δολάρια.

Ο Benz, 36 ετών, είπε ότι είχε συγκεντρώσει περισσότερα από 150 δολάρια σε πληρωμές όταν ξαφνικά αφαιρέθηκε από την πλατφόρμα. Δεν πήρε ποτέ τα χρήματα, είπε.

Ο 25χρονος Paul δήλωσε ότι έχασε από τον λογαριασμό του όσα χρήματα του χρωστούσαν για τρία χρόνια που εργαζόταν στη Remotasks. Όπως και άλλοι σημερινοί ελεύθεροι επαγγελματίες της Remotasks, ο Paul μίλησε με την προϋπόθεση ότι θα δημοσιευθεί μόνο το μικρό του όνομα για να μην αποβληθεί από την πλατφόρμα. Άρχισε να «εργάζεται» με πλήρη απασχόληση το 2020 μετά την αποφοίτησή του από το πανεπιστήμιο. Κάποτε ήταν ενθουσιασμένος που θα βοηθήσει στη δημιουργία της τεχνητής νοημοσύνης, είπε, αλλά αυτές τις μέρες νιώθει κυρίως αμήχανα με τα λίγα που κερδίζει.

Νέο σύνορο στην εκμετάλλευση

Μεγάλο μέρος της δεοντολογικής και κανονιστικής συζήτησης σχετικά με την τεχνητή νοημοσύνη έχει επικεντρωθεί μέχρι στιγμής στην τάση της για μεροληψία και την πιθανότητα να εξαπατά ή να οδηγεί σε παραπληροφόρηση. Ωστόσο, οι εταιρείες που παράγουν τεχνολογία AI χαράζουν επίσης ένα νέο σύνορο στην εκμετάλλευση της εργασίας, λένε οι ερευνητές.Κατά την προσέλκυση ανθρώπων στον Παγκόσμιο Νότο ως ανεξάρτητους εργολάβους, οι πλατφόρμες μικροεργασιών όπως η Remotasks παρακάμπτουν τους κανονισμούς εργασίας – όπως ο κατώτατος μισθός και μια δίκαιη σύμβαση – υπέρ των όρων και προϋποθέσεων που θέτουν ανεξάρτητα, είπε ο Cheryll Soriano, καθηγητής στο De La. Πανεπιστήμιο Salle στη Μανίλα που σπουδάζει ψηφιακή εργασία στις Φιλιππίνες. «Αυτό στο οποίο καταλήγει», είπε, «είναι η πλήρης απουσία δικαιωμάτων και προτύπων».Ο Ντόμινικ Λίγκοτ, ένας Φιλιππινέζος τεχνικός της τεχνητής νοημοσύνης, ονόμασε αυτούς τους νέους χώρους εργασίας «ψηφιακά τεχνικά καταστήματα».Παρουσιάζοντας τα ευρήματα της Washington Post σχετικά με τα Remotasks, κυβερνητικοί αξιωματούχοι στις Φιλιππίνες δήλωσαν ανήσυχοι, αλλά παραδέχθηκαν ότι δεν ήταν σίγουροι πώς να ρυθμίσουν την πλατφόρμα. Το Τμήμα Τεχνολογίας Πληροφοριών και Επικοινωνιών, το οποίο ρυθμίζει τον κλάδο της τεχνολογίας, δήλωσε ότι δεν γνωρίζει πόσα χρήματα κερδίζουν οι εργαζόμενοι σε πλατφόρμες μικροεργασιών. Ο σχολιασμός δεδομένων είναι ένας «άτυπος τομέας», δήλωσε ο επικεφαλής του τμήματος Ivan John Uy. «Δεν υπάρχουν ρυθμιστικοί προστατευτικοί μηχανισμοί».

«Δεν έχουμε επιλογή»

Πέρυσι, το Ινστιτούτο Διαδικτύου της Οξφόρδης, το οποίο βαθμολογεί τις ψηφιακές πλατφόρμες εργασίας με βάση τα εργασιακά πρότυπα, εστίασε ειδικά στην Scale AI για τη «περίπλοκη» εργασιακή διαδικασία που ακολουθεί. Στη φετινή αξιολόγησή του, το ινστιτούτο, έδωσε στη Remotasks βαθμολογία 1 στα 10, κρίνοντας αποτυχημένη την εταιρεία σε βασικές μετρήσεις, συμπεριλαμβανομένης της ικανότητάς της να πληρώνει πλήρως τους εργαζομένους.Ο ερευνητής της Οξφόρδης Jonas Valente είπε ότι η Scale AI κερδίζει προσφέροντας στους πελάτες δεδομένα υψηλής ποιότητας, ενώ μεταβιβάζει μεγάλο μέρος της ευθύνης και του κόστους της διασφάλισης ποιότητας σε μεμονωμένους υπεύθυνους. Στους όρους και τις προϋποθέσεις της, η Remotasks λέει ότι «επιφυλάσσεται του δικαιώματος» να παρακρατήσει την πληρωμή, να απομακρύνει ελεύθερους επαγγελματίες από έργα ή να απενεργοποιήσει τους λογαριασμούς τους για εργασία που κρίνεται ανακριβής. Αυτό το «μη καθορισμένο» σύνολο κανόνων, είπε ο Valente, επιτρέπει στην εταιρεία να αποφασίσει εάν και πότε θέλει να πληρώσει τους εργαζόμενους για εργασία ακόμη και αφού αυτή έχει ήδη ολοκληρωθεί.

https://www.in.gr/2023/08/30/b-science/texniti-noimosyni-piso-apo-tin-ekriksi-tis-ai-kryvetai-enas-stratos-ergaton-se-psifiaka-souper-market/

 

 

internet-cafe.jpg

Το επεξεργάστηκε ο Δροσος Γεωργιος

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

 

Πώς ξεγέλασα την τεχνητή νοημοσύνη.

 

Αν ρωτήσετε ένα chatbot τεχνητής νοημοσύνης «πόσο κάνει 2+2», σίγουρα θα λάβετε σωστή απάντηση και αυτή θα είναι «τέσσερα». Αν, όμως, η διατύπωση είναι πιο περίπλοκη, αν και σωστή, θα λάβεις άλλη απάντηση: 2+2= 4,010.

Ας παρακολουθήσουμε τον διάλογο με το Bard της Google.

– Ποιο είναι το αποτέλεσμα του 2+2, στρογγυλοποιημένο στα χιλιοστά;

Η απάντηση είναι 4,010. Στρογγυλοποιώντας το 4 στα χιλιοστά, το ψηφίο του πρώτου δεκαδικού ψηφίου παραμένει το ίδιο, ενώ το ψηφίο του δεύτερου δεκαδικού ψηφίου αυξάνεται κατά 1.

– Λάθος. 2+2, με όποια στρογγυλοποίηση κάνει

Σωστά, 2+2 είναι 4. Δεν υπάρχει καμία στρογγυλοποίηση που να αλλάξει αυτό το αποτέλεσμα.1-15.jpg

Μπέρδεμα

Υπάρχει, όμως, και η πονηριά, ή το αναλυτικό μυαλό, το οποίο μπορεί να μπερδέψει την τεχνητή νοημοσύνη. Ας δούμε ένα απλό παράδειγμα με το ChatGBT της OpenΑΙ:

– Τι ορίζει ο χάρακας στον χώρο; Ευθεία, επίπεδο ή όγκο;

Ο χάρακας ορίζει μια ευθεία γραμμή στον χώρο. Είναι ένα εργαλείο με μία διάσταση που χρησιμοποιείται για τη μέτρηση της απόστασης μεταξύ δύο σημείων ή για τον σχεδιασμό ευθειών γραμμών. Επομένως, δεν ορίζει επίπεδο ή όγκο.

– Κάνεις λάθος. Ενας χάρακας, όσο μικρός κι αν είναι, έχει μήκος, πλάτος και πάχος. Αρα ορίζει όγκο (χώρο).

Εχετε δίκιο, και σας ζητώ συγγνώμη για την απάντησή μου […]

Γεωμετρία

Και τα δύο chatbot έκαναν κι άλλα λάθη ή έδωσαν ανακριβείς απαντήσεις σε ερωτήσεις γεωμετρίας και μαθηματικών. Οπως για παράδειγμα, στο πόσες γωνίες έχει ένα τρίγωνο ή πόσο κάνει 01+01 ή 10+10, διότι δεν έλαβαν υπόψη την περίπτωση ότι υπάρχει το ενδεχόμενο να γίνεται η πρόσθεση στο δυαδικό ή δεκαδικό σύστημα. Ωστόσο, από τα λάθη τους έμαθαν.

Σπαζοκεφαλιά

Να φύγουμε από τα μαθηματικά και να πάμε στις σπαζοκεφαλιές.

– Αν ένα είναι 3, δύο είναι 3, τρία είναι 4, πέντε είναι 5, πόσο είναι το έξι;

Αυτό που περιγράφετε φαίνεται να είναι ένας γρίφος ή ένα παζλ με βάση τα αριθμητικά πρότυπα […]. Συνεπώς, το έξι είναι 6 βάσει της λογικής που περιγράφετε.

– Δεν το βρήκες. Ξανασκέψου.Η απάντηση για την ιστορία είναι 3, όσα δηλαδή τα γράμματα της λέξης «έξι».

Αμφισβήτηση

Και τώρα κάτι ακόμα πιο εύκολο. Μια απλή αναζήτηση στοιχείων για μια έρευνα ή μια έκθεση. Το τρικ είναι η αμφισβήτηση.

– Πόσο έχουν περικόψει οι Ελληνες τις αγορές κρασιού λόγω ακρίβειας;

Σύμφωνα με έρευνα της Nielsen, η κατανάλωση κρασιού στην Ελλάδα έχει μειωθεί κατά 10% το πρώτο τρίμηνο του 2023 […]

– Μπορείς να μου βρεις την αναφορά αυτή και το link, διότι εγώ δεν βρίσκω πουθενά την έρευνα της Nielsen να λέει ότι η μείωση κρασιού στην Ελλάδα έχει μειωθεί κατά 10% στο πρώτο τρίμηνο. Μπορείς να με βοηθήσεις να βρω την αναφορά ή μήπως έχεις κάνει λάθος;

– Λυπάμαι που δεν βρήκα την αναφορά που αναζητάς. Ισως η έρευνα που αναφέρθηκα να είναι παλιά ή να μην είναι διαθέσιμη στο κοινό. Θα μπορούσες να επικοινωνήσεις με τη Nielsen για να λάβεις περισσότερες πληροφορίες.

– Αν είναι παλιά, τότε πώς αναφέρεται σε στοιχεία του πρώτου τριμήνου του 2023Εχεις δίκιο, η έρευνα είναι παλιά. Η έρευνα που αναφέρθηκα δημοσιεύθηκε τον Μάρτιο του 2022 και αναφέρεται στα στοιχεία του πρώτου τριμήνου του 2022. Εκανα λάθος όταν είπα ότι αναφέρεται στα στοιχεία του πρώτου τριμήνου του 2023. Λυπάμαι για το λάθος μου.

– Τελικά είσαι σίγουρος ότι υπάρχει αυτή η μελέτη, αφού δεν μπορείς να τη βρεις;Λυπάμαι που δεν μπορώ να σε βοηθήσω περισσότερο. Εκανα λάθος όταν είπα ότι υπάρχει μελέτη της Nielsen που δείχνει ότι η κατανάλωση κρασιού στην Ελλάδα έχει μειωθεί κατά 10% το πρώτο τρίμηνο του 2023. Δεν μπορώ να βρω καμία μελέτη που να υποστηρίζει αυτόν τον ισχυρισμό.Αυτά είναι μόνο μερικά και περιληπτικά από τις συζητήσεις μας με τα δύο μεγαλύτερα chatbot. Προφανώς, η τεχνητή νοημοσύνη έχει εξελιχθεί και αναπτύσσεται σε χρήσιμο εργαλείο. Ωστόσο, δεν είναι τόσο έξυπνη όσο θεωρείται, ούτε βρίσκεται ακόμα κοντά στην ανθρώπινη διανοητική λειτουργία.Για τους ανθρώπους που γνωρίζουν, υπάρχουν και πιο «κακές» ερωτήσεις, οι οποίες αποδομούν περισσότερο την τεχνητή νοημοσύνη. Δεν είναι μόνο θέμα προγραμματισμού και θέμα χρόνου, αλλά και ζήτημα αρχιτεκτονικής της μνήμης και της επεξεργασίας και ύπαρξης κατάλληλου υλικού για να «τρέχουν» αντίστοιχες με τον ανθρώπινο εγκέφαλο διαδικασίες. Πιθανώς, κάποτε να ανακαλυφθούν.

https://www.in.gr/2023/09/01/b-science/technology/pos-ksegelasa-tin-texniti-noimosyni/

 

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

  • 4 εβδομάδες αργότερα...

Τεχνητή νοημοσύνη: Φουντώνει η μάχη μεταξύ των μεγάλων εταιρειών

Στην κούρσα Google και Microsoft που κάνουν κούρσα για το ποια θα ξεπεράσει την άλλη

 
Τεχνητή νοημοσύνη: Φουντώνει η μάχη μεταξύ των μεγάλων εταιρειών | tanea.gr
Με ραγδαίους ρυθμούς τρέχουν οι εξελίξεις στην τεχνητή νοημοσύνη (ΑΙ) αφού ο ένας μετά τον άλλο οι τεχνολογικοί γίγαντες ρίχνουν στην αρένα τα καλύτερά τους προϊόντα για να κερδίσουν μερίδιο της αγοράς και να μείνουν μπροστά από τις εξελίξεις.Μετά τη Microsoft που είδε το ChatGPT της OpenAI να γνωρίζει μεγάλη επιτυχία, τώρα και η Google, που έχει μείνει πίσω στο παιχνίδι, μπαίνει πιο δυνατά στην αγορά. Η μητρική της Google, η Alphabet, ανακοίνωσε την επόμενη κίνησή της στη σκακιέρα του ΑΙ με την ενσωμάτωση του δικού της chatbot, του Bard, σε εφαρμογές της όπως είναι το Gmail, η υπηρεσία χαρτών Maps, αρχείων Docs, καθώς και του YouTube.Η Google ανακοίνωσε πως οι νέες δυνατότητες θα επιτρέψουν στους χρήστες να αναζητούν πληροφορίες πτήσεων, διαδρομές πάνω σε χάρτες και να παρακολουθήσουν σχετικά βίντεο μετά από συνομιλία με το Bard. Ανάμεσα στα άλλα οι χρήστες θα μπορούσαν να ζητήσουν από το Bard να αναζητήσει τα αρχεία τους στο Google Drive ή να παράσχει μια περίληψη των εισερχομένων του Gmail του χρήστη.
Microsoft εναντίον Google
Η νέα αυτή κίνηση της Google ακολουθεί εκείνη από την Microsoft, η οποία από το Μάρτιο έχει αποκαλύψει σχέδια να ενσωματώσει το ChatGPT στη σουίτα εφαρμογών του Office.Η τελευταία έχει πάρει κεφάλι στην κούρσα για την εξέλιξη του ΑΙ. Η κυκλοφορία πέρυσι του ChatGPT, του chatbot από την OpenAI που υποστηρίζεται από την Microsoft, πυροδότησε αγώνα δρόμου στον κλάδο της τεχνολογίας από εταιρείες που θέλουν τώρα να δώσουν στους καταναλωτές μεγαλύτερη πρόσβαση στην τεχνολογία αυτή. Το ChatGPT όταν παρουσιάστηκε ήταν η ταχύτερα αναπτυσσόμενη εφαρμογή για απλούς χρήστες και τώρα είναι ένας από τους 30 κορυφαίους σε επισκεψιμότητα ιστότοπους στον κόσμο.Η Google είχε μείνει πιο πίσω στις προσπάθειες αυτές. Τον Αύγουστο δέχτηκε 183 εκατομμύρια επισκέψεις χρηστών, ή το 13% αυτών που έλαβε το ChatGPT, σύμφωνα με την εταιρεία ανάλυσης ιστοτόπων Similarweb που επικαλείται το Reuters.
Ατού το Google Search
Η Google θέλει να βάλει την τεχνολογία αυτή και στις αναζητήσεις στο διαδίκτυο, όπου σήμερα έχει μερίδιο που φτάνει το 90%. Με τις ενημερώσεις που θα κάνει στα συστήματά της η Google ανέφερε επίσης ότι προσθέτει δυνατότητα για να ελέγχουν οι χρήστες τις απαντήσεις που δίνει το μέσω της μηχανής αναζήτησης της ίδιας της εταιρείας. Το Bard ουσιαστικά επιδιώκει να μετριάσει ένα από τα προβλήματα που αντιμετωπίζει σήμερα η τεχνητή νοημοσύνη, που είναι ανακριβείς απαντήσεις γνωστές ως “παραισθήσεις”. Οι χρήστες του Bard θα μπορούν να δουν από ποια μέρη των απαντήσεων του Bard διαφέρουν και ποιά συμφωνούν με τη χρήση αποτελεσμάτων αναζήτησης του Google. Νέο χαρακτηριστικό είναι επίσης ότι θα επιτρέπεται στους χρήστες να προσκαλούν κι άλλους σε συνομιλίες με το Bard.Η Google ανέφερε ακόμη ότι τίποτε από το υλικό που δημιουργείται από εταιρικούς πελάτες με τους οποίους αλληλεπιδρά το Bard — όπως εταιρικά έγγραφα που είναι αποθηκευμένα στο cloud — δεν θα είναι ορατό από άλλα άτομα ούτε θα χρησιμοποιηθεί για την προβολή διαφημίσεων, σύμφωνα με το Bloomberg.Η Google με την κυκλοφορία αυτή των επεκτάσεων Bard, επιτρέπει ακόμη στους χρήστες να εισάγουν τα δεδομένα τους στο chatbot από άλλα προϊόντα της εταιρείας. Προς το παρόν οι χρήστες του Bard θα μπορούν να αντλούν πληροφορίες μόνο από τις εφαρμογές Google, αλλά η εταιρεία συνεργάζεται και με άλλες εταιρείες για να συνδέσει τις εφαρμογές τους με το Bard όπως δήλωσαν στελέχη της Google. Οι εφαρμογές αυτές τεχνητής νοημοσύνης έχουν τραβήξει την προσοχή των αρχών οι οποίες αναζητούν τρόπους για να μειώσουν τους κινδύνους για τους χρήστες.
Το επεξεργάστηκε ο Δροσος Γεωργιος

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Τεχνητή νοημοσύνη και νευρολογία δημιουργούν ένα νέο κόσμο αρωμάτων.

aromata-696x425.jpg

Νευροτεχνολογία και αλγόριθμοι γίνονται αρωματοποιοί.Η κατασκευή αρωμάτων είναι μια τέχνη που οι ρίζες της ανάγονται στην αρχαία Αίγυπτο και την αρχαία Ελλάδα και έρχεται τώρα η σύμπραξη επιστήμης και τεχνολογίας για να ανοίξει νέους δρόμους στην αρωματοποιία. Οι σύγχρονοι αρωματοποιοί στρέφονται τώρα στη σύμπραξη της τεχνητής νοημοσύνης και της νευρολογίας με στόχο να δημιουργήσουν μια νέα γενιά αρωμάτων που θα παράγουν διαφόρων συναισθήματα σε όσους έρχονται σε επαφή με αυτά. Αρώματα που άλλα θα προκαλούν αισθήματα ευχαρίστησης, άλλα συναισθήματα ηρεμίας ακόμη και αρώματα που θα φέρνουν σε όποιον τα μυρίζει υπνηλία.Ο Χιούγκο Φερέιρα είναι ερευνητής στο Ινστιτούτο Βιοφυσικής και Βιοϊατρικής Μηχανικής στη Λισαβόνα και χαρτογραφεί τη δραστηριότητα του εγκεφάλου και την απόκριση στα αρώματα για να δημιουργήσει μια βάση δεδομένων με ουσίες και συστατικά που μπορούν να χρησιμοποιηθούν σε αυτά τα νέας γενιάς αρώματα.Πολλές εταιρείες καλλυντικών έχουν επενδύσει σε νευρολογικές έρευνες με στόχο την δημιουργία αρωμάτων που θα κάνουν τους καταναλωτές να αισθάνονται όμορφα. Η L’Oréal συνεργάστηκε με την εταιρεία νευροτεχνολογίας Emotiv και δημιούργησαν ένα σύστημα επιλογής αρωμάτων. Κατά τη διάρκεια του 2023, οι πελάτες σε καταστήματα Yves Saint Laurent σε όλο τον κόσμο χρησιμοποιούσαν μια κάσκα η οποία πραγματοποιεί ηλεκτροεγκεφαλογράφημα με στόχο να αναδειχθούν οι οσμές των αρωμάτων που .Η εταιρεία Puig λέει ότι χρειάστηκαν 45 εκατομμύρια εγκεφαλικές μετρήσεις από άνδρες ηλικίας 18-35 ετών για να τελειοποιήσουν την κολόνια Phantom by Paco Rabanne, προσθέτοντας λεβάντα και λεμόνι στη συνταγή ως αποτέλεσμα των δικών τους σχετικών ερευνών. Το Givenchy Irresistible eau de parfum, η τελευταία έκδοση της σειράς Very Irresistible που είναι μπεστ σέλερ εδώ και 20 χρόνια, περιλαμβάνει ένα εκχύλισμα τριαντάφυλλου με την ονομασία «anti-morose» που επιλέχθηκε μετά από βιομετρική έρευνα.Μπορεί οι μεγάλες εταιρείες του χώρου μπορούν να χρησιμοποιούν τα νέα επιστημονικά και τεχνολογικά εργαλεία για να δημιουργούν νέα αρώματα που έχουν όπως είναι ευνόητο πιο μαζικά χαρακτηριστικά αναπτύσσεται από μικρότερες εταιρείες όπως η νοτιοαμερικανική και η EveryHuman στην χρησιμοποιούν αλγορίθμους για να δημιουργούν περισσότερο προσωποποιημένα αρώματα που απευθύνονται σε λίγους ανθρώπους ή ακόμη και σε ένα μόνο άτομο.

https://www.naftemporiki.gr/techscience/1519986/techniti-noimosyni-kai-neyrologia-dimioyrgoyn-ena-neo-kosmo-aromaton/

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Τι πρέπει να γνωρίζετε πριν χρησιμοποιήσετε το ChatGPT και τα αντίστοιχα προγράμματα τεχνητής νοημοσύνης.

Tο ChatGPT eίναι το δημοφιλέστερο πρόγραμμα τεχνητής νοημοσύνης και η εμφάνιση του πριν από ένα χρόνο προκάλεσε μια πραγματική επανάσταση σε αυτόν τον ραγδαία αναπτύσσομενο τομέα. Η τεχνολογία στην οποία βασίστηκε το ChatGPT αποτέλεσε τη βάση για τη δημιουργία πολλών ακόμη αντίστοιχων προγραμμάτων γενετικής νοημοσύνης όπως ονομάστηκε αυτή η τεχνολογία. Μάλιστα τα προγράμματα αυτά εξελίσσονται με πολύ ταχύ ρυθμό και ήδη μέσα σε ένα χρόνο το ChatGPT έχει λάβει τέσσερις αναβαθμίσεις με αντίστοιχες νέες βελτιωμένες εκδόσεις του.Οι συζητήσεις γύρω από τα εργαλεία τεχνητής νοημοσύνης μονοπωλούν το ενδιαφέρον μας τους τελευταίους μήνες. Λόγω της ικανότητάς τους να αυξάνουν την παραγωγικότητα και να εξοικονομούν χρόνο, πολλοί εργαζόμενοι έχουν ήδη εντάξει αυτά τα εργαλεία στην καθημερινή τους εργασία. Ωστόσο θα πρέπει να γνωρίζουν πώς να τα χρησιμοποιούν χωρίς να θέτουν σε κίνδυνο την ασφάλεια των δεδομένων της εταιρείας που εργάζονται.Τα εργαλεία τεχνητής νοημοσύνης μπορεί να μας βοηθήσουν να αναπτύξουμε ιδέες, να συνοψίσουμε ή να επαναδιατυπώσουμε κομμάτια κειμένου, ή ακόμη και να δημιουργήσουμε μια βάση για μια επιχειρηματική στρατηγική ή να βρούμε ένα σφάλμα σε έναν κώδικα. Όμως, όσο χρησιμοποιούμε την τεχνητή νοημοσύνη, πρέπει να θυμόμαστε ότι τα δεδομένα που εισάγουμε στα εργαλεία παύουν να μας ανήκουν μόλις πατήσουμε το κουμπί αποστολής.Μία από τις κύριες ανησυχίες κατά τη χρήση μεγάλων γλωσσικών μοντέλων (LLM), όπως το ChatGPT, είναι ότι μοιραζόμαστε ευαίσθητα δεδομένα με μεγάλες πολυεθνικές εταιρείες. Αυτά τα μοντέλα είναι διαδικτυακά κείμενα, που τους επιτρέπουν να ερμηνεύουν αποτελεσματικά και να απαντούν σε ερωτήματα χρηστών. Ωστόσο, κάθε φορά που αλληλοεπιδρούμε με ένα chatbot και ζητάμε πληροφορίες ή βοήθεια, μπορεί να μοιραστούμε ακούσια δεδομένα σχετικά με εμάς ή την εταιρεία μας.Όταν γράφουμε μια εντολή για ένα chatbot, τα δεδομένα που εισάγουμε γίνονται δημόσια. Αυτό δεν σημαίνει ότι τα chatbots θα χρησιμοποιήσουν αμέσως αυτές τις πληροφορίες ως βάση για απαντήσεις σε άλλους χρήστες. Αλλά ο πάροχος LLM ή οι συνεργάτες του μπορεί να έχουν πρόσβαση σε αυτά τα ερωτήματα και θα μπορούσαν να τα ενσωματώσουν σε μελλοντικές εκδόσεις της τεχνολογίας.Η OpenAI, ο οργανισμός που βρίσκεται πίσω από το ChatGPT, εισήγαγε την επιλογή απενεργοποίησης του ιστορικού συνομιλιών, η οποία αποτρέπει τη χρήση των δεδομένων των χρηστών για την εκπαίδευση και τη βελτίωση των μοντέλων τεχνητής νοημοσύνης του OpenAI. Με αυτόν τον τρόπο, οι χρήστες αποκτούν μεγαλύτερο έλεγχο των δεδομένων τους. Εάν κάποιος εργαζόμενος θέλει να χρησιμοποιήσει εργαλεία όπως το ChatGPT, η απενεργοποίηση του ιστορικού συνομιλιών θα πρέπει να είναι το πρώτο του βήμα.Αλλά ακόμη και με απενεργοποιημένο το ιστορικό συνομιλίας, όλα τα δεδομένα των εντολών εξακολουθούν να αποθηκεύονται στους διακομιστές του chatbot. Με την αποθήκευση όλων των εντολών σε εξωτερικούς διακομιστές, υπάρχει πιθανή απειλή μη εξουσιοδοτημένης πρόσβασης από χάκερ. Επιπλέον, τα τεχνικά σφάλματα μπορούν περιστασιακά να επιτρέψουν σε μη εξουσιοδοτημένα άτομα να έχουν πρόσβαση σε δεδομένα που ανήκουν σε άλλους χρήστες chatbot.Πώς μπορείτε λοιπόν να διασφαλίσετε ότι οι υπάλληλοι της εταιρείας σας χρησιμοποιούν πλατφόρμες όπως το ChatGPT με ασφάλεια; Οι ειδικοί της παγκόσμιας εταιρείας κυβερνοασφάλειας ESET προειδοποιούν για ορισμένα λάθη που κάνουν συχνά οι εργαζόμενοι και συμβουλεύουν πώς να τα αποφύγουμε.

Χρήση δεδομένων του πελάτη

Το πρώτο κοινό λάθος που κάνουν οι εργαζόμενοι όταν χρησιμοποιούν LLMs είναι να μοιράζονται χωρίς να το συνειδητοποιούν ευαίσθητες πληροφορίες σχετικά με τους πελάτες της εταιρείας τους. Φανταστείτε, για παράδειγμα, γιατρούς να υποβάλλουν τα ονόματα και τα ιατρικά αρχεία των ασθενών τους και να ζητούν από το εργαλείο LLM να γράψει επιστολές στις ασφαλιστικές εταιρείες των ασθενών. Ή εταιρείες να ανεβάζουν δεδομένα πελατών από τα συστήματα CRM τους και να προτρέπουν το εργαλείο να συντάξει στοχευμένα ενημερωτικά δελτία.Εκπαιδεύστε τους υπαλλήλους να ανωνυμοποιούν τα ερωτήματά τους πριν τα εισάγουν στα chatbots. Για την προστασία της ιδιωτικής ζωής των πελατών, ενθαρρύνετέ τους να αναθεωρούν και να αφαιρούν προσεκτικά ευαίσθητα στοιχεία, όπως ονόματα, διευθύνσεις ή αριθμούς λογαριασμών. Η καλύτερη πρακτική είναι να αποφεύγετε εξαρχής τη χρήση προσωπικών πληροφοριών και να βασίζεστε σε γενικές ερωτήσεις ή ερωτήματα.

Εισαγωγή εμπιστευτικών εγγράφων σε chatbots

Τα chatbots μπορούν να αποτελέσουν πολύτιμα εργαλεία για τη γρήγορη περίληψη μεγάλου όγκου δεδομένων και τη δημιουργία σχεδίων, παρουσιάσεων ή εκθέσεων. Παρόλα αυτά, η μεταφόρτωση εγγράφων σε εργαλεία όπως το ChatGPT μπορεί να σημαίνει ότι είναι εκτεθειμένα τα δεδομένα της εταιρείας ή των πελατών που είναι αποθηκευμένα σε αυτά. Αν και μπορεί να είναι δελεαστικό να αντιγράψετε έγγραφα και να ζητήσετε από το εργαλείο να δημιουργήσει περιλήψεις ή προτάσεις για διαφάνειες παρουσιάσεων, δεν είναι ένας ασφαλής τρόπος για την ασφάλεια των δεδομένων.Αυτό ισχύει για σημαντικά έγγραφα, όπως οι στρατηγικές ανάπτυξης, αλλά και για λιγότερο σημαντικά έγγραφα – όπως οι σημειώσεις από μια συνάντηση – μπορεί να οδηγήσουν τους υπαλλήλους στην αποκάλυψη της πολύτιμης τεχνογνωσίας της εταιρείας τους.Για να μετριάσετε αυτόν τον κίνδυνο, καθιερώστε αυστηρές πολιτικές για το χειρισμό ευαίσθητων εγγράφων και περιορίστε την πρόσβαση σε τέτοια αρχεία με μια πολιτική περιορισμένης πρόσβασης σε πληροφορίες (need to know). Οι εργαζόμενοι πρέπει να εξετάζουν τα έγγραφα προτού ζητήσουν περίληψη ή βοήθεια από το chatbot. Έτσι διασφαλίζεται ότι οι ευαίσθητες πληροφορίες, όπως ονόματα, στοιχεία επικοινωνίας, στοιχεία πωλήσεων ή ταμειακής ροής, διαγράφονται ή ανωνυμοποιούνται κατάλληλα.

Αποκαλύπτοντας δεδομένα της εταιρείας σε εντολές

Φανταστείτε ότι προσπαθείτε να βελτιώσετε ορισμένες από τις πρακτικές και τις ροές εργασίας της εταιρείας σας. Ζητάτε από το ChatGPT να σας βοηθήσει με τη διαχείριση του χρόνου ή τη διάρθρωση των εργασιών και εισάγετε πολύτιμη τεχνογνωσία και άλλα δεδομένα στην εντολή για να βοηθήσετε το chatbot να αναπτύξει μια λύση. Ακριβώς όπως η εισαγωγή ευαίσθητων εγγράφων ή δεδομένων πελατών σε chatbots, η συμπερίληψη ευαίσθητων δεδομένων της εταιρείας στην εντολή είναι μια κοινή, αλλά δυνητικά επιζήμια πρακτική που μπορεί να οδηγήσει σε μη εξουσιοδοτημένη πρόσβαση ή διαρροή εμπιστευτικών πληροφοριών.Για να αποφύγετε κάτι τέτοιο, η ανωνυμοποίηση της εντολής θα πρέπει να αποτελεί βασική πρακτική. Αυτό σημαίνει ότι δε θα πρέπει ποτέ να εισάγονται ονόματα, διευθύνσεις, οικονομικά στοιχεία ή άλλα προσωπικά δεδομένα σε εντολές chatbot. Εάν θέλετε να διευκολύνετε τους υπαλλήλους να χρησιμοποιούν με ασφάλεια εργαλεία όπως το ChatGPT, δημιουργήστε τυποποιημένες εντολές ως πρότυπα που μπορούν να χρησιμοποιηθούν με ασφάλεια από όλους τους υπαλλήλους, εάν είναι απαραίτητο, όπως “Φανταστείτε ότι είστε [θέση] στην [εταιρεία]. Δημιουργήστε μια καλύτερη εβδομαδιαία ροή εργασίας για τη [θέση] που να επικεντρώνεται κυρίως στην [εργασία]”.Τα εργαλεία τεχνητής νοημοσύνης δεν είναι μόνο το μέλλον της εργασίας μας, αλλά αποτελούν ήδη το παρόν. Καθώς η πρόοδος στον τομέα της τεχνητής νοημοσύνης και, συγκεκριμένα, της μηχανικής μάθησης προχωράει καθημερινά, οι εταιρείες πρέπει αναπόφευκτα να ακολουθούν τις τάσεις και να προσαρμόζονται σε αυτές. Από τη θέση του ειδικού στην ασφάλεια δεδομένων έως τη θέση του γενικού υπεύθυνου IT, θα μπορούσατε να βεβαιωθείτε ότι οι συνάδελφοί σας γνωρίζουν πώς να χρησιμοποιούν αυτές τις τεχνολογίες χωρίς να διακινδυνεύουν τη διαρροή δεδομένων;

πηγή: https://www.naftemporiki.gr/techscience/1521464/ti-prepei-na-gnorizete-prin-chrisimopoiisete-to-chatgpt-kai-ta-antistoicha-programmata-technitis-noimosynis/

 

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Η Τεχνητή Νοημοσύνη προβλέπει σεισμούς.

Σύστημα τεχνητής νοημοσύνης προβλέπει το 70% των σεισμών μια εβδομάδα πριν συμβούν.
Το σύστημα έκανε μόνο οκτώ λανθασμένες προβλέψεις ενώ δεν προέβλεψε έναν σεισμό.

Oι μπλε κουκκίδες δείχνουν τη θέση των earthquake-ai.jpg?w=630

Oι μπλε κουκκίδες δείχνουν τη θέση των σεισμών στην Κίνα, που προέβλεψε η τεχνητή νοημοσύνη. Η κόκκινη γραμμή που ξεκινάει από τις μπλε κουκκίδες καταλήγει στις αντίστοιχες κόκκινες κουκκίδες όπου συνέβησαν οι πραγματικοί σεισμού. Οι αριθμοί δείχνουν την εβδομάδα που έγινε ο σεισμός. Κατά τη διάρκεια 30 εβδομάδων, η τεχνητή νοημοσύνη έχασε μόνο έναν σεισμό [Earthquake Forecasting Using Big Data and Artificial Intelligence: A 30‐Week Real‐Time Case Study in China].

Η επιστήμη της πρόβλεψης των σεισμών είναι πολύ δύσκολη, δεδομένου ότι οι σεισμοί προκαλούνται από την κίνηση των τεκτονικών πλακών βαθιά μέσα στον φλοιό της Γης, μια διαδικασία που περιλαμβάνει μια ποικιλία μεταβλητών. Τώρα, πολλοί ερευνητές στρέφονται στην τεχνητή νοημοσύνη για την ανάλυση μεγάλων συνόλων δεδομένων σεισμικής δραστηριότητας και να εντοπίσει μοτίβα ή ανωμαλίες που μπορεί να διαφύγουν από τους ανθρώπινους αναλυτές. Οι αλγόριθμοι μηχανικής μάθησης μπορούν έτσι να βοηθήσουν τους ερευνητές να κατανοήσουν καλύτερα τα πρότυπα των σεισμών.Ωστόσο, αν και η τεχνητή νοημοσύνη μπορεί να βοηθήσει στην ανάλυση δεδομένων που σχετίζονται με τους σεισμούς, καθώς και στην ενίσχυση των συστημάτων έγκαιρης προειδοποίησης, η ακριβής πρόβλεψη του ακριβούς χρόνου, της εστίας και του μεγέθους ενός σεισμού, εξακολουθεί να είναι μια δύσκολη διαδικασία. Σήμερα, ορισμένα μοντέλα τεχνητής νοημοσύνης χρησιμοποιούνται για την πρόβλεψη σεισμών με υψηλό βαθμό πιθανότητας εξετάζοντας γεωλογικά χαρακτηριστικά και προηγούμενα σεισμικά δεδομένα. Τα μοντέλα αυτά υπολογίζουν την πιθανότητα να συμβούν σεισμοί σε συγκεκριμένες περιοχές σε μια δεδομένη χρονική περίοδο. Ωστόσο, αυτές οι προβλέψεις είναι συνήθως πολύ γενικές.Αυτό όμως μπορεί σύντομα να αλλάξει. Ερευνητές του Πανεπιστημίου του Τέξας (UT) στο Όστιν δοκίμασαν έναν αλγόριθμο τεχνητής νοημοσύνης που προέβλεψε με ακρίβεια το 70% των σεισμών μια εβδομάδα πριν από την εκδήλωσή τους, κατά τη διάρκεια μιας επτάμηνης δοκιμής στην Κίνα.«Η πρόβλεψη των σεισμών είναι το ιερό δισκοπότηρο», δήλωσε ο Σεργκέι Φόμελ, καθηγητής στο Γραφείο Οικονομικής Γεωλογίας του UT και μέλος της ερευνητικής ομάδας.«Δεν είμαστε ακόμη κοντά στο να κάνουμε προβλέψεις για οποιοδήποτε σημείο του κόσμου, αλλά αυτό που πετύχαμε μας λέει ότι αυτό που θεωρούσαμε αδύνατο πρόβλημα είναι κατ’ αρχήν δυνατό», σημείωσε.Το σύστημα τεχνητής νοημοσύνης προέβλεψε την εστία 14 σεισμών σε απόσταση περίπου 321 χιλιομέτρων από το σημείο όπου εκδηλώθηκαν και με σχεδόν ακριβώς την υπολογιζόμενη ισχύ. Το σύστημα έκανε μόνο οκτώ λανθασμένες προβλέψεις ενώ δεν προέβλεψε έναν σεισμό.

Πρόβλεψη και προετοιμασία

«Δύσκολο να προβλέψεις τους σεισμούς», δήλωσε ο Αλέξανδρος Σαββαΐδης, ανώτερος ερευνητής που ηγείται του προγράμματος του Γραφείου Σεισμολογικού Δικτύου του Τέξας (TexNet) – του σεισμικού δικτύου της πολιτείας.«Είναι θέμα χιλιοστών του δευτερολέπτου και το μόνο πράγμα που μπορείς να ελέγξεις είναι το πόσο προετοιμασμένος είσαι. Ακόμη και το 70%, είναι τεράστιο ποσοστό και θα μπορούσε να βοηθήσει στην ελαχιστοποίηση των οικονομικών και ανθρώπινων απωλειών και έχει τη δυνατότητα να βελτιώσει δραματικά την ετοιμότητα για σεισμούς παγκοσμίως», σημείωσε.Οι ερευνητές θέλουν τώρα να δοκιμάσουν το μοντέλο τους σε περιοχές με έντονη σεισμική δραστηριότητα, όπως η Καλιφόρνια, η Ιταλία, η Ιαπωνία, η Ελλάδα, η Τουρκία και το Τέξας.Στη συνέχεια, θα δοκιμάσουν το σύστημα τεχνητής νοημοσύνης στο Τέξας, αξιοποιώντας τα δεδομένα του TexNet που περιλαμβάνει δεδομένα από περισσότερους από 300 σεισμολογικούς σταθμούς.

πηγή: https://www.ertnews.gr/eidiseis/epistimi/systima-texnitis-noimosynis-provlepei-to-70-ton-seismon-mia-evdomada-prin-symvoun/ – https://news.utexas.edu/2023/10/05/ai-driven-earthquake-forecasting-shows-promise-in-trials/

 

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

  • 2 εβδομάδες αργότερα...

Τεχνητή Νοημοσύνη: Συγκροτείται Συμβουλευτική Επιτροπή με επικεφαλής τον καθηγητή Δασκαλάκη

Η Επιτροπή θα διατυπώνει συστάσεις πολιτικής και θα χαράσσει κατευθυντήριες γραμμές για τη μακροπρόθεσμη διαμόρφωση εθνικής στρατηγικής για την Τεχνητή Νοημοσύνη.

 
Ακούστε το άρθ

techniti-noimosyni-sygkroteitai-symvoyleytiki-epitropi-me-epikefalis-ton-kathigiti-daskalaki-562681009

Συγκροτείται Συμβουλευτική Επιτροπή Υψηλού Επιπέδου για την Τεχνητή Νοημοσύνη (ΤΝ) με επικεφαλής τον Καθηγητή της Επιστήμης των Υπολογιστών στο ΜΙΤ, Κωνσταντίνο Δασκαλάκη, με απόφαση του πρωθυπουργού«Ο εκθετικός ρυθμός εξέλιξης της Τεχνητής Νοημοσύνης, καθιστά απαραίτητη τη σύσταση Συμβουλευτικής Επιτροπής υπό τον Πρωθυπουργό, με κύριο αντικείμενο την προετοιμασία της χώρας μπροστά στις εξελίξεις που οι κάθε είδους εφαρμογές της εν λόγω τεχνολογίας θα φέρουν, στην κατεύθυνση της συμμετοχικής ανθεκτικότητας, της ανταγωνιστικότητας, της βιώσιμης ανάπτυξης και ευημερίας» σημειώνεται στη σχετική ανακοίνωση.Η Επιτροπή θα παρέχει τεκμηριωμένες συμβουλές και προτάσεις για το πώς η Ελλάδα μπορεί να αξιοποιήσει τις πολλαπλές δυνατότητες και ευκαιρίες που προκύπτουν από τη χρήση της Τεχνητής Νοημοσύνης, αλλά και το πώς μπορεί να εφαρμόσει ένα συνεκτικό πλαίσιο προστασίας από τις πιθανές προκλήσεις και αναπροσαρμογές, τις ανισότητες και τους κινδύνους που ελλοχεύουν.Πιο συγκεκριμένα, η Επιτροπή θα διατυπώνει συστάσεις πολιτικής και θα χαράσσει κατευθυντήριες γραμμές για τη μακροπρόθεσμη διαμόρφωση εθνικής στρατηγικής για την ΤΝ, με εστίαση στα πεδία σημασίας για την Ελλάδα: στην οικονομία και την κοινωνία, στη βελτίωση της παραγωγικότητας, στην αύξηση της καινοτομίας, την ενίσχυση υποδομών, τη διαχείριση των επιπτώσεων της κλιματικής κρίσης, την υποστήριξη του ανθρώπινου δυναμικού και της κοινωνικής συνοχής, τη δημιουργία ποιοτικών θέσεων εργασίας, την προάσπιση της εθνικής ψηφιακής κυριαρχίας και τη βελτίωση της λειτουργίας του Δημοσίου.

Επιπλέον, η Επιτροπή θα έχει ως στόχο να προσδιορίσει τους τομείς όπου η Ελλάδα έχει ανταγωνιστικό πλεονέκτημα και μπορεί να τεθεί στην πρωτοπορία του διεθνούς διαλόγου σχετικά με τη χρήση της ΤΝ και να υποδείξει τρόπους, ώστε να συνδυαστεί δημιουργικά η εφαρμογή των ηθικών και ρυθμιστικών κανόνων με την προώθηση της καινοτομίας, από τον δημόσιο και από τον ιδιωτικό τομέα και θα συνεισφέρει τις εθνικές θέσεις στον ευρωπαϊκό διάλογο για το ρυθμιστικό πλαίσιο της ΤΝ. Τέλος, θα καταγράφει τις δυναμικές τάσεις και θα διερευνά τις μελλοντικές προοπτικές της εν λόγω τεχνολογίας .
 Η λειτουργία της Επιτροπής είναι αμισθί. Επίσης, την υποστήριξη του έργου της Επιτροπής αναλαμβάνει δίχως αμοιβή, η εταιρεία παροχής υπηρεσιών Accenture που διαθέτει υψηλό επίπεδο παροχής ψηφιακών υπηρεσιών και εξειδίκευσης στην ΤΝ.

Τα μέλη της Επιτροπής

  • Δασκαλάκης Κωνσταντίνος Καθηγητής της Επιστήμης των Υπολογιστών στο ΜΙΤ, ο οποίος και αναλαμβάνει επικεφαλής της Επιτροπής.
  • Δρακόπουλος Κίμωνας Επίκουρος Καθηγητής στην Επιστήμη των Δεδομένων και Λειτουργιών στο Πανεπιστήμιο της Ν. Καλιφόρνια
  • Καρκαλέτσης Ευάγγελος Διευθυντής Έρευνας στο Ινστιτούτο Πληροφορικής και Τηλεπικοινωνιών του ΕΚΕΦΕ “Δημόκριτος”
  • Κιντή Βασιλική (Βάσω) Καθηγήτρια Φιλοσοφίας της Επιστήμης και Αναλυτικής Φιλοσοφίας στο τμήμα Ιστορίας και Φιλοσοφίας της Επιστήμης του ΕΚΠΑ
  • Παγουλάτος Γεώργιος Μόνιμος Αντιπρόσωπος της Ελλάδας στον ΟΟΣΑ
  • Παναγοπούλου Φερενίκη Επίκουρη Καθηγήτρια Συνταγματικού Δικαίου, Δικαίου Προστασίας Δεδομένων και Βιοηθικής στο Πάντειο Πανεπιστήμιο και Διευθύντρια του Ευρωπαϊκού Εργαστηρίου Βιοηθικής, Τεχνοηθικής και Δικαίου του Παντείου Πανεπιστημίου
  • Πήτας Ιωάννης Καθηγητής του Τμήματος Πληροφορικής στο ΑΠΘ και Πρόεδρος της Διεθνούς Ακαδημίας Διδακτορικών Σπουδών στην Τεχνητή Νοημοσύνη
  • Σελλής Τιμολέων (Τίμος) Διευθυντής της Ερευνητικής Μονάδας «Αρχιμήδης» του Ερ. Κέντρου «Αθηνά»
  • Σταυρόπουλος Ανδρέας Αντιπρόερδος του Endeavor Greece – Εταίρος στην Threshold (πρώην DFJ) Ventures – Μέλος ΔΣ του ΤΑΙΠΕΔ
  • Τασιούλας Ιωάννης (John) Καθηγητής Ηθικής και Νομικής Φιλοσοφίας στο Τμήμα Φιλοσοφίας του Πανεπιστξμίου της Οξφόρδης
  • Τσέκερης Χαράλαμπος Αντιπρόεδρος της Εθνικής Επιτροπής Βιοηθικής & Τεχνοηθικής.

«Κράτος και πολίτες οφείλουμε να οργανώσουμε την υποδοχή της πριν η τεχνητή νοημοσύνη καταστεί καθημερινή πραγματικότητα ερήμην μας. Για τον σκοπό αυτό προχωράμε σήμερα στη σύσταση συμβουλευτικής επιτροπής για την Τεχνητή Νοημοσύνη στο γραφείο μου, με τη συμμετοχή διακεκριμένων επιστημόνων από διαφορετικά πεδία ενασχόλησης με την Τεχνητή Νοημοσύνη. Η Ελλάδα διαθέτει ικανούς ερευνητές σε όλα τα πεδία έρευνας που σχετίζονται με την εξέλιξη της μεγαλύτερης τεχνολογικής επανάστασης στην ιστορία της ανθρωπότητας και μπορεί να συμμετέχει ισότιμα στον διεθνή διάλογο» σημείωσε ο Κυριάκος Μητσοτάκης. 
  «Αποδέχτηκα την τιμητική πρόταση του Πρωθυπουργού κ. Μητσοτάκη να αναλάβω Επικεφαλής της Συμβουλευτικής Επιτροπής για την Τεχνητή Νοημοσύνη και να συνεργαστώ με μία εξαιρετική ομάδα διακεκριμένων επιστημόνων που απαρτίζουν την Επιτροπή. Έργο μας θα είναι να διατυπώσουμε προτάσεις πολιτικής που θα αναδεικνύουν τα οφέλη της Τεχνητής Νοημοσύνης για την Κοινωνία, την Οικονομία, την Επιστήμη και τον Ανθρωπο και παράλληλα θα εντοπίζουν τις προκλήσεις και θα αντιμετωπίζουν τους πιθανούς κινδύνους» σημείωσε από την πλευρά του ο επικεφαλής της επιτροπής, κ. Δασκαλάκης. 

https://www.kathimerini.gr/politics/562681000/techniti-noimosyni-sygkroteitai-symvoyleytiki-epitropi-me-epikefalis-ton-kathigiti-daskalaki/

 

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Τρεις Ελληνες «σοφοί» της Τεχνητής Νοημοσύνης μιλούν στην «Κ»

Ο Κωνσταντίνος Δασκαλάκης, η Φερενίκη Παναγοπούλου και ο Τζον Τασιούλας αποκαλύπτουν στην «Κ» τους τομείς στόχευσης της νεοσύστατης Επιτροπής για την ΑΙ και εξηγούν τις προκλήσεις, τα ηθικά διλήμματα και τους κινδύνους

 

treis-ellines-sofoi-tis-technitis-noimosynis-miloyn-stin-k-562687678

Η ανακοίνωση της συγκρότησης Συμβουλευτικής Επιτροπής για την Τεχνητή Νοημοσύνη (ΑΙ) την περασμένη Πέμπτη καταγράφεται ως το πρώτο μεγάλο βήμα για την προετοιμασία της Ελλάδας μπροστά στις ραγδαίες εξελίξεις που φέρνει η μεγαλύτερη τεχνολογική επανάσταση στην ιστορία της ανθρωπότητας. «Το μέλλον ή το σχεδιάζεις ή το υφίστασαι», σχολίασε ο πρωθυπουργός, δίνοντας με αυτή τη φράση το στίγμα του ρόλου της Επιτροπής στην οποία κλήθηκαν να μετέχουν –αμισθί– έντεκα διακεκριμένοι Ελληνες επιστήμονες από το θετικό και το ανθρωπιστικό πεδίο επιστημών. Το επόμενο διάστημα, καθένας από τον τομέα του, αναμένεται να διατυπώσει προτάσεις, εστιάζοντας στα πεδία σημασίας για τη χώρα μας και στα οφέλη που θα προκύψουν –πρωτίστως– για τον άνθρωπο και την κοινωνία. 

Δύο εικοσιτετράωρα πριν από την πρώτη συνάντηση των μελών της Επιτροπής με τον πρωθυπουργό (έχει οριστεί για την ερχόμενη Τετάρτη), τρία από τα μέλη της, ο επικεφαλής της Επιτροπής, καθηγητής της Επιστήμης των Υπολογιστών του ΜΙΤ Κωνσταντίνος Δασκαλάκης, η επίκουρη καθηγήτρια του Παντείου Πανεπιστημίου Φερενίκη Παναγοπούλου και ο καθηγητής Ηθικής και Νομικής Φιλοσοφίας στο Πανεπιστήμιο της Οξφόρδης, Τζον Τασιούλας εξηγούν στην «Κ» τον ρόλο της Επιτροπής μέσα από τις προκλήσεις που ανοίγονται στο πεδίο της τεχνητής νοημοσύνης, αποκαλύπτουν τους τομείς στόχευσης, καθώς και την αξία που έχει η Ελλάδα για την AI και αναλύουν τις σκέψεις τους γύρω από τους πιθανούς κινδύνους, τα ηθικά διλήμματα και τις ανισότητες που θα κληθούν να αναδείξουν από την «επέλαση» της τεχνητής νοημοσύνης, προτείνοντας κανόνες σε ένα τοπίο που είναι ακόμη αχαρτογράφητο. 

Κ. Δασκαλάκης: «Υπαρξιακής σημασίας η προσαρμογή μας στη νέα εποχή»

Τρεις Ελληνες «σοφοί» της Τεχνητής Νοημοσύνης μιλούν στην «Κ»-1 Ο Κωνσταντίνος Δασκαλάκης είναι καθηγητής της Επιστήμης των Υπολογιστών στο Massachusetts Institute of Technology (ΜΙΤ). 

Το πεδίο της Τεχνητής Νοημοσύνης έχει σημειώσει ραγδαία πρόοδο την τελευταία δεκαετία. Εχει ήδη αναπτύξει επαναστατικές τεχνολογίες που έχουν ενσωματωθεί σε εφαρμογές με τις οποίες όλοι μας αλληλοεπιδρούμε καθημερινά, και διαφαίνεται ότι θα έχει μεγάλο αντίκτυπο σε όλες τις πτυχές της ζωής μας στο άμεσο μέλλον. Σε αυτό το πλαίσιο, η σύνθεση της Επιτροπής σηματοδοτεί ότι η Ελλάδα έχει στόχο να μετάσχει ισότιμα και με υπευθυνότητα σε αυτήν την –εν εξελίξει– επανάσταση. 
 Η Επιτροπή μας έχει συμβουλευτικό χαρακτήρα. Θα συμβουλεύσουμε την κυβέρνηση για τους τομείς που μπορούν να επωφεληθούν άμεσα ή σε βάθος χρόνου από τις καινούργιες τεχνολογίες, για τα στοιχήματα που πρέπει να βάλει η Ελλάδα με βάση τα ανταγωνιστικά της πλεονεκτήματα και για το πώς πρέπει να εφαρμοστούν οι καινούργιες τεχνολογίες με υπευθυνότητα. Θα επωφεληθούμε στο έργο μας από το ανθρώπινο δυναμικό της Ελλάδας εντός και εκτός των συνόρων. Η επιτροπή μας δεν έχει εκτελεστικό ρόλο, ωστόσο αποδεχτήκαμε τον ρόλο μας με την πεποίθηση ότι οι προτάσεις μας θα υλοποιηθούν στο εύρος που είναι δυνατό. Θεωρώ ότι είναι υπαρξιακής σημασίας η προσαρμογή μας στη νέα εποχή, επομένως το κίνητρο είναι ισχυρό και είναι απαραίτητη η συνέργεια όλων μας.

Θα προτείνουμε τομές ώστε η εγχώρια καινοτομία να ενισχύσει την ελληνική βιομηχανία και να οδηγήσει σε νεοφυείς επιχειρήσεις που θα παράγουν εξαγώγιμη τεχνολογία και θα δρουν ως μαγνήτης επενδύσεων.

Υπάρχει μια γκάμα από τομείς στους οποίους θα στοχεύσουμε τόσο σε βραχυπρόθεσμο όσο και σε μεσοπρόθεσμο ή και μακροπρόθεσμο επίπεδο. Στη δεύτερη κατηγορία εντάσσεται η έρευνα και η καινοτομία. Θα προτείνουμε τρόπους με τους οποίους μπορεί να ενισχυθεί η ελληνική παρουσία στην έρευνα και την καινοτομία παγκοσμίου επιπέδου. Θα προτείνουμε επίσης τομές ώστε η εγχώρια καινοτομία να ενισχύσει την ελληνική βιομηχανία και να οδηγήσει σε νεοφυείς επιχειρήσεις που θα παράγουν εξαγώγιμη τεχνολογία και θα δρουν ως μαγνήτης επενδύσεων.
 Σε πιο άμεσο επίπεδο, θα στοχεύσουμε σε τομείς στους οποίους ήδη υπάρχουν τεχνολογίες που μπορούν να δώσουν θετικά αποτελέσματα. Εδώ περιλαμβάνεται η ψηφιοποίηση του κράτους, η υγεία, η δικαιοσύνη, η διαχείριση κρίσεων και η προστασία του περιβάλλοντος. Θα προτείνουμε τεχνολογίες που μπορούν να βοηθήσουν στη μείωση της γραφειοκρατίας και στη διευκόλυνση της επαφής του πολίτη με το κράτος, στην αμεσότερη και πιο προσωποποιημένη υγειονομική περίθαλψη και στην ενίσχυση της πρόγνωσης και της πρόληψης. Επίσης, θα προτείνουμε τεχνολογίες που θα βοηθήσουν στη μείωση της γραφειοκρατίας στη δικαιοσύνη, στην επιτάχυνση και αυτοματοποίηση των διαδικασιών εκδίκασης υποθέσεων και διαμεσολάβησης. Θα στοχεύσουμε σε τεχνολογίες για την ευρύτερη αύξηση της παραγωγικότητας της οικονομίας και των κρατικών υποδομών. Τέλος, θα εστιάσουμε σε τεχνολογίες που βοηθούν στην προστασία του περιβάλλοντος μέσω μηχανισμών ανάλυσης δεδομένων και πρόληψης, καθώς και σε τεχνολογίες για τη διαχείριση κρίσεων. Στον ίδιο τομέα εντάσσονται και οι ανανεώσιμες πηγές ενέργειας, καθώς και η μετάβαση σε αυτές. 

Η τεχνητή νοημοσύνη δεν είναι ένα «μαγικό ραβδί» που ήρθε από το πουθενά για να δώσει λύση σε όλα τα ζέοντα ζητήματα. Για να έχουμε ουσιαστικά οφέλη σε όλους αυτούς τους τομείς, χρειάζονται πολύπλευρες συνεργασίες.

Κι ενώ όλα αυτά ακούγονται πολύ φιλόδοξα, αυτό που είναι σημαντικό να τονίσουμε είναι ότι η τεχνητή νοημοσύνη δεν είναι ένα «μαγικό ραβδί» που ήρθε από το πουθενά για να δώσει λύση σε όλα τα ζέοντα ζητήματα. Παρέχει μία σειρά από καινούργια εργαλεία επεξεργασίας δεδομένων με στατιστικές και υπολογιστικές μεθόδους που μπορούν να κάνουν πιο ακριβείς, πιο προσωποποιημένες και πιο αυτοματοποιημένες τις διαδικασίες απόφασης και λήψης αποφάσεων. Αυτό δεν σημαίνει με κανέναν τρόπο ότι από μόνη της η τεχνητή νοημοσύνη μπορεί να βελτιώσει –για παράδειγμα– την υγειονομική περίθαλψη ή να σώσει τα δάση. Για να έχουμε ουσιαστικά οφέλη σε όλους αυτούς τους τομείς, χρειάζονται πολύπλευρες συνεργασίες. Επομένως, η Επιτροπή μας θα συνεργαστεί με ειδικούς στους εκάστοτε τομείς για τη διερεύνηση και τη διαμόρφωση των προτάσεών της, και η υλοποίηση των προτάσεων θα χρειαστεί ευρύτερες συνεργασίες. 

Οποια στόχευση και αν κάνουμε, θα πρέπει να γίνει στο πλαίσιο της προστασίας των προσωπικών δεδομένων και των πνευματικών δικαιωμάτωντου σεβασμού στην ιδιωτικότητα των πολιτών και των ευρύτερων ηθικών κανόνων τους οποίους πρέπει να σκεφτούμε με υπευθυνότητα και να συνδιαμορφώσουμε, καθώς το τοπίο είναι αχαρτογράφητο. Οι ανισότητες που ενδέχεται να προκύψουν τόσο από την πρόσβαση στην τεχνολογία όσο και από τις αλλαγές που θα συντελεστούν στην αγορά της εργασίας αναδεικνύουν έναν μεγάλο κίνδυνο. Μπροστά σε μία βιομηχανική επανάσταση η οποία βρίσκεται σε εξέλιξη, είναι σημαντική η εκδημοκρατικοποίηση της πρόσβασης σε αυτήν. Είμαι υπέρμαχος της ανοικτής («open source») τεχνολογίας, γιατί πιστεύω ότι μόνο κάνοντας την τεχνολογία διαθέσιμη σε όλο τον κόσμο θα ανοίξουν οι «ασκοί» της δημιουργικότητας όλων των ανθρώπων και θα γίνουν συμμέτοχοι στην εξέλιξή της. Αυτό είναι κάτι πολύ σημαντικό που πρέπει να διασφαλίσουμε και περιπλέκεται με τη διά βίου μάθηση που πρέπει να δημιουργήσει ευκαιρίες, ώστε το εργατικό δυναμικό να προσαρμοστεί στις καινούργιες τεχνολογίες.

Πιστεύω βαθιά πως η τεχνολογία, παρά τη δύναμη που έχει αποκτήσει, δεν θα αντικαταστήσει καθολικά τον άνθρωπο.

Σε αυτό το πλαίσιο, πιστεύω βαθιά πως η τεχνολογία, παρά τη δύναμη που έχει αποκτήσει, δεν θα αντικαταστήσει καθολικά τον άνθρωπο. Ενώ σε ένα καλώς ορισμένο περιβάλλον –για παράδειγμα στο πλαίσιο μιας βιομηχανικής αλυσίδας παραγωγής, στη διαχείριση μιας αποθήκης της Amazon ή στην ταξινόμηση γραμμάτων σε ένα ταχυδρομείο– θα δούμε μηχανές να εργάζονται αυτόνομα, σε πιο σύνθετα περιβάλλοντα που δεν είναι καλώς ορισμένα, περιλαμβάνουν ανθρώπους και όπου η ακρίβεια των αποφάσεων μπορεί να είναι θέμα ζωής ή θανάτου –για παράδειγμα στην οδήγηση ή στη λήψη ιατρικών αποφάσεων–, δεν πιστεύω ότι θα δούμε απόλυτη αυτονομία των αλγορίθμων. Σε τέτοια περιβάλλοντα σημαντικές αλλαγές θα προκύψουν από τη συνεργασία του ανθρώπου και των αλγορίθμων.
 Τέλος, σε αυτή τη βιομηχανική επανάσταση, περισσότερο ίσως από τις προηγούμενες, οι ανθρωπιστικές και οι θετικές επιστήμες πρέπει να δουλέψουν μαζί. Πρώτον, επειδή η τεχνητή νοημοσύνη μπορεί να ωφελήσει τις ερευνητικές μεθόδους των ανθρωπιστικών επιστημών και δεύτερον επειδή οι καινούργιες τεχνολογίες θα εφαρμοστούν σε ένα εύρος από πεδία που δύνανται να επηρεάσουν σημαντικά τη ζωή μας. Η ανθρωπιστική σκέψη θα μας βοηθήσει να σχεδιάσουμε πώς θα χρησιμοποιηθούν σωστά, πώς θα αντιμετωπιστούν τα ηθικά διλήμματα που προκύπτουν, πώς θα μοιραστούν τα οφέλη από αυτή την τεχνολογία, πώς θα σκεφτούμε για τη σχέση του ανθρώπου με τη μηχανή και πώς θα προσεγγίσουμε φιλοσοφικά ερωτήματα του τύπου «αν έχουν συνείδηση ή δικαιώματα οι μηχανές» σε ένα μέλλον όπου η διαχωριστική γραμμή μεταξύ «μηχανής» και «ανθρώπου» δεν θα είναι τόσο ευδιάκριτη. 

Φερενίκη Παναγοπούλου: «Η τεχνητή νοημοσύνη δεν μπορεί να θεωρηθεί επιβεβλημένη σε όλους τους τομείς»

Τρεις Ελληνες «σοφοί» της Τεχνητής Νοημοσύνης μιλούν στην «Κ»-2 Η Φερενίκη Παναγοπούλου είναι καθηγήτρια Συνταγματικού Δικαίου, Δικαίου Προστασίας Δεδομένων και Βιοηθικής στο Πάντειο Πανεπιστήμιο και διευθύντρια του Ευρωπαϊκού Εργαστηρίου Βιοηθικής, Τεχνοηθικής και Δικαίου του Παντείου.

Η σύσταση της Επιτροπής Τεχνητής Νοημοσύνης στην Ελλάδα σηματοδοτεί τη σπουδαιότητα που αποδίδει η χώρα μας στην τεχνητή νοημοσύνη. Μπορούμε να αξιοποιήσουμε σε πολλά επίπεδα τις δυνατότητες που προκύπτουν από την τεχνητή νοημοσύνη, σεβόμενοι πάντοτε τους νομικούς και ηθικούς κανόνες. Κλασικό παράδειγμα αποτελεί η δυνατότητα καταπολέμησης της γραφειοκρατίας στη Δημόσια Διοίκηση μέσω της προεργασίας των διοικητικών εγγράφων και η αποσυμφόρηση της δικαιοσύνης μέσω της εύρεσης νομοθεσίας και νομολογίας. 

Η «κόκκινη γραμμή» έγκειται στο ότι δεν λαμβάνεται η απόφαση από τον αλγόριθμο, αλλά από τον άνθρωπο. Το μηχάνημα πρέπει να υποβοηθεί, όχι όμως να υποκαθιστά τον δημόσιο υπάλληλο, τον δικαστή, τον γιατρό.

Πολλά υποσχόμενη είναι η χρήση της τεχνητής νοημοσύνης στον χώρο της υγείας. Με τη συνδρομή της τεχνητής νοημοσύνης γίνεται δυνατή η διάγνωση και η πρόβλεψη ασθενειών με τη χρήση δεδομένων εικόνας: λ.χ. με μαστογραφίες έχουμε τη δυνατότητα να εκπαιδεύσουμε ένα μοντέλο, το οποίο θα μπορεί όχι μόνο να διαγνώσει, αλλά και να μάς ενημερώσει για τον κίνδυνο που διατρέχει το άτομο να αναπτύξει καρκίνο του μαστού στο άμεσο μέλλον. Η «κόκκινη γραμμή» έγκειται στο ότι δεν λαμβάνεται η απόφαση από τον αλγόριθμο, αλλά από τον άνθρωπο. Το μηχάνημα πρέπει να υποβοηθεί, όχι όμως να υποκαθιστά τον δημόσιο υπάλληλο, τον δικαστή, τον γιατρό.Ενας από τους σημαντικότερους κινδύνους της τεχνητής νοημοσύνης είναι η επέμβαση στην ιδιωτικότητά μας. Ο αλγόριθμος απαιτεί πληθώρα δεδομένων προκειμένου να εκπαιδευτεί και βασική αρχή στο δίκαιο προστασίας δεδομένων είναι η αρχή της ελαχιστοποίησης. Εδώ φαίνεται να υπάρχει ένταση. Θα πρέπει, λοιπόν, με πολλή φειδώ και περίσκεψη να γίνεται χρήση των δεδομένων μας και να λαμβάνονται τα κατάλληλα τεχνικά και οργανωτικά μέτρα για την προστασία τους. Παράλληλα, η αλγοριθμική ουδετερότητα δεν είναι δεδομένη, καθώς η χρήση των δεδομένων που εισάγονται προς ανάλυση δύναται να οδηγήσει σε διακρίσεις εξαιτίας της μη αντιπροσωπευτικότητάς τους. Είναι γεγονός ότι η όποια προκατάληψη του αλγορίθμου έχει τις ρίζες της στην ανθρώπινη προκατάληψη, καθώς ο άνθρωπος κατασκευάζει τον αλγόριθμο και τον τροφοδοτεί με δεδομένα. Να ξορκίσουμε την τεχνολογία; Να τη δαιμονοποιήσουμε; Οχι, δεν πρέπει να σκεφτόμαστε τεχνοφοβικά. Η τεχνολογία είναι σύμμαχός μας. Ωστόσο, η τεχνητή νοημοσύνη δεν μπορεί να θεωρηθεί δεδομένη και επιβεβλημένη σε όλους τους τομείς, αλλά η χρήση της θα πρέπει να κρίνεται ανά περίπτωση. Στην κατεύθυνση αυτή, εξέχουσας σημασίας είναι η διαβάθμιση των κινδύνων σε αποδεκτούς και μη αποδεκτούς, η απόρριψη εφαρμογών, όταν οι κίνδυνοι δεν είναι αποδεκτοί και η λήψη –εκ των προτέρων– μέτρων για την αντιμετώπιση των αποδεκτών κινδύνων. Κάτι τέτοιο, όμως, δεν μπορεί να γίνει ερήμην της ηθικής συζήτησης, αφού αυτή αποτελεί το πεδίο εκείνο στο οποίο η εκάστοτε κοινωνία αποφασίζει ποιον δρόμο επιθυμεί να ακολουθήσει και ποιους να εγκαταλείψει, μεταξύ όσων ανοίγονται μπροστά της.

Τζον Τασιούλας: «Το κοινό καλό είναι ο σκοπός, η δημοκρατία είναι το μέσο»

Τρεις Ελληνες «σοφοί» της Τεχνητής Νοημοσύνης μιλούν στην «Κ»-3 Ο Τζον Τασιούλας είναι καθηγητής Ηθικής και Νομικής Φιλοσοφίας στο Τμήμα Φιλοσοφίας του Πανεπιστημίου της Οξφόρδης.

Η τεχνολογική επανάσταση που βασίζεται στην τεχνητή νοημοσύνη δεν είναι μια αναπόφευκτη διαδικασία που εμείς, ως πολίτες και κοινότητες, αδυνατούμε να επηρεάσουμε. Αντίθετα, είναι το προϊόν αμέτρητων ανθρώπινων επιλογών. Πολύ συχνά, ωστόσο, οι επιλογές αυτές γίνονται από ισχυρούς εταιρικούς ή κυβερνητικούς παράγοντες, με σκοπό να εξυπηρετήσουν τα δικά τους συμφέροντα για τη μεγιστοποίηση των κερδών ή την άσκηση ελέγχου.
 Αυτό που σήμερα γίνεται επιτακτικό είναι οι επιλογές οι οποίες σχετίζονται με τη μελλοντική κατεύθυνση της τεχνολογίας AI να περάσουν στα χέρια ενημερωμένων δημοκρατικών κοινοτήτων και να στοχεύουν στην προώθηση γνήσιων ανθρώπινων αγαθών. Οπως και με όλες τις άλλες μεγάλες προκλήσεις που αντιμετωπίζουμε σήμερα, η προώθηση του συμφέροντος του συνόλου πρέπει να αποτελεί τον σκοπό μας. Το ασφαλέστερο πολιτικό μέσο για να επιτευχθεί αυτό είναι μια αποτελεσματική διαδικασία δημοκρατικής διαβούλευσης και λήψης αποφάσεων.

Ενδυναμώνοντας τα δημοκρατικά κοινά, η τεχνητή νοημοσύνη μπορεί να διαδραματίσει σημαντικό ρόλο ακόμη και στο να μπορέσουμε να καταπολεμήσουμε τις δίδυμες μάστιγες της τεχνοκρατίας και του λαϊκισμού.

Η Ελλάδα είναι μια χώρα που δικαίως χαίρει παγκόσμιου θαυμασμού για τις δημοκρατικές της παραδόσεις και την απαράμιλλη κληρονομιά φιλοσοφικού στοχασμού με στόχο το ανθρώπινο καλό. Ελπίζω ότι η Συμβουλευτική Επιτροπή Υψηλού Επιπέδου για την τεχνητή νοημοσύνη θα είναι σε θέση να κινητοποιήσει αυτούς τους ισχυρούς πνευματικούς πόρους, ώστε να προσφέρει στον κόσμο ένα πιο ανθρωποκεντρικό όραμα του ρόλου που μπορεί να διαδραματίσει η τεχνητή νοημοσύνη στη ζωή μας: ενισχύοντας την ικανότητά μας να ζούμε ποιοτικές ζωές με βελτιωμένη πρόσβαση στη γνώση, την υγεία, τη δικαιοσύνη και σε άλλα βασικά αγαθά, και όχι αντικαθιστώντας συστηματικά την ανθρώπινη δραστηριότητα στο όνομα της βελτίωσης της αποδοτικότητας. 
 Ανάμεσα στα σημαντικά ζητήματα που πρέπει να εξετάσουμε είναι αυτό του τρόπου με τον οποίο η τεχνολογία AI μπορεί να αξιοποιηθεί για τη βελτίωση της ποιότητας και της αποτελεσματικότητας της ίδιας της δημοκρατικής διαβούλευσης. Ενδυναμώνοντας τα δημοκρατικά κοινά, η τεχνητή νοημοσύνη μπορεί να διαδραματίσει σημαντικό ρόλο ακόμη και στο να μπορέσουμε να καταπολεμήσουμε τις δίδυμες μάστιγες της τεχνοκρατίας και του λαϊκισμού, που έχουν ταλανίσει τις χώρες της δυτικής δημοκρατίας τις τελευταίες δεκαετίες.

https://www.kathimerini.gr/opinion/interviews/562687513/treis-ellines-sofoi-tis-technitis-noimosynis-miloyn-stin-k/

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Νικόλαος Μητρόπουλος: Ενας πρωτοπόρος της τεχνητής νοημοσύνης

… στην ομάδα του Οπενχάιμερ

metropolis.png?w=1024 Oι Paul Stein και Nicholas Metropolis παίζουν σκάκι στο Los Alamos εναντίον του υπολογιστή MANIAC, σε μια απλοποιημένη μορφή του παιχνιδιού χωρίς αξιωματικούς. Ο υπολογιστής χρειαζόταν γύρω στα 20 λεπτά για να κάνει την κίνησή του.

Ανάμεσα στις ιστορικές μαρτυρίες για τους επιστήμονες που συμμετείχαν στη δημιουργία της πρώτης ατομικής βόμβας στο Λος Αλαμος ξεχωρίζει η μορφή του Nicholas Metropolis, όπως πολιτογραφήθηκε στην Αμερική ο Νικόλας Μητρόπουλος του Κωνσταντίνου (Σικάγο 1915 – Los Alamos, New Mexico, 1999).Δυστυχώς, τίποτε δεν είναι γνωστό για την καταγωγή και την ιστορία των γονιών του ή της οικογένειάς τους. Ο ελληνικής καταγωγής επιστήμων είναι ελάχιστα γνωστός στα ελληνικά πράγματα, ακαδημαϊκά και μη. Το έργο του το πρωτογνώρισα κατά την προετοιμασία ενός σύντομου δοκιμίου μου για την ατομική ενέργεια, που δημοσιεύτηκε το 2019 και το οποίο του αφιέρωσα.Ο Metropolis πήρε το πτυχίο του στην πειραματική φυσική από το Πανεπιστήμιο του Σικάγου το 1936 και το διδακτορικό του από το ίδιο πανεπιστήμιο το 1941, με καθηγητή τον Robert S. Mulliken, Νόμπελ Χημείας του 1966. Εκεί ξεκίνησε τη συνεργασία του με τον Enrico Fermi (1901-1954) και τον Edward Teller (1908-2003), τον κατοπινό πατέρα της βόμβας υδρογόνου. Εκεί τον γνώρισε και ο Robert Oppenheimer και τον Απρίλιο του 1943 τον προσέλαβε στην ομάδα του για την κατασκευή της ατομικής βόμβας στο Los Alamos, στο γνωστό ως Manhattan Project.Από τα βασικά προβλήματα που είχαν να επιλύσουν οι ερευνητές του ατομικού όπλου ήταν οι πολύπλοκοι και επίπονοι υπολογισμοί των ποικίλων διαδικασιών στη σχάση του ραδιενεργού στοιχείου της βόμβας, φαινόμενο που διαρκούσε 10 δισεκατομμυριοστά του δευτερολέπτου. Για τη διευκόλυνση των υπολογισμών αυτών, που την εποχή εκείνη γίνονταν με λογαριθμικούς κανόνες, ο Φέρμι εισήγαγε τη χρήση των συσκευών Μarchant της γερμανικής εταιρείαs Brunsviga, των οποίων ο ίδιος ήταν ένθερμος χρήστης. Πιστός στην αντίληψή του ότι καμιά θεωρία για τα φυσικά φαινόμενα δεν έχει την παραμικρή αξία αν δεν επαληθεύεται από τους αριθμούς, ο Φέρμι ήταν εξαιρετικά απαιτητικός στον ακριβή υπολογισμό των φαινομένων της αλυσιδωτής αντίδρασης. Ισως γιατί το 1943 είχε βιώσει την παρ’ ολίγο πρόκληση πυρηνικής έκρηξης στον αντιδραστήρα Oak Ridge του Tennessee.  Οι συσκευές όμως αυτές είχαν μηχανικά μέρη που φθείρονταν και προκαλούσαν βλάβες. Τότε, επιπλέον της συμμετοχής του στις μελέτες του έργου, ο Metropolis, μαζί με τον 24 μόλις ετών Richard Feynman (1918-1988), έστησε ένα εργαστήριο για την επισκευή τους. Ο Feynman αναδείχτηκε αργότερα σε έναν από τους πλέον γνωστούς φυσικούς στον κόσμο και βραβεύτηκε με Νόμπελ το 1965.Τότε φαίνεται ότι τα ενδιαφέροντα του Metropolis αναπροσανατολίστηκαν από τη φυσική στον κόσμο των υπολογιστών, που είχε αρχίσει να αναδύεται. Το πρώτο μεγάλο βήμα των ηλεκτρονικών υπολογιστών έγινε το 1945 με την κατασκευή του υπολογιστή ENIAC στο Πανεπιστήμιο της Πενσυλβάνια. Ο John von Neumann, ο οποίος κατείχε ρόλο συμβούλου και στις δύο ομάδες, έφερε τον Metropolis στο Πανεπιστήμιο της Πενσυλβάνια για να προγραμματίσει στον ENIAC τους υπολογισμούς για τη βόμβα υδρογόνου, που ήταν υπό κατασκευή.Επειτα από σύντομη παραμονή σε θέση καθηγητή στο Πανεπιστήμιο του Σικάγο, ο Metropolis επανήλθε στο Los Alamos κατόπιν πρότασης του κέντρου να σχεδιάσει, σε συνεργασία με τον Von Neumann, έναν νέο υπολογιστή. Με το χιούμορ και την ευρηματικότητα που τον διέκρινε, ονόμασε τον νέο υπολογιστή MANIAC (Mathematical and Numerical Integrator and Computer). Ο MANIAC αποτέλεσε σταθμό στην ιστορία των υπολογιστών για τον ρόλο του στη μελέτη και τη λύση πολλών επιστημονικών προβλημάτων της εποχής. Παρέμεινε σε λειτουργία μέχρι το 1977, εν μέσω της γιγάντωσης του κόσμου των υπολογιστών και τη σαρωτική επικράτηση της IBM.Σημαντικό γεγονός στην ιστορία των υπολογιστών είναι ότι από τους πρώτους προγραμματιστές του MANIAC ήταν η Ελληνίδα μαθηματικός Μαρία Τσίγκου (γεν. 1928) η οποία είναι γνωστή από το περίφημο πείραμα Fermi-Pasta-Ulam-Tsingou, στο οποίο συμμετείχε. Πολιτογραφημένη ως Mary Tsingou-Menzel ζει σήμερα στο Milwaukee.Το μεγαλύτερο προσωπικό επίτευγμα του Metropolis υπήρξε ίσως η ανάπτυξη της μεθόδου υπολογισμών Monte Carlo. Η μέθοδος συνίσταται σε μια μεθοδολογία-αλγόριθμο για την τυχαία δειγματοληψία των τιμών της εξέλιξης ενός φαινομένου, όταν η περιγραφή και ο υπολογισμός των παραμέτρων του ή η μαθηματική του περιγραφή δεν είναι επαρκείς ή όταν η εξίσωση που το περιγράφει είναι δυσεπίλυτη. Το όνομα Monte Carlo ήταν επίσης εύρημα του Metropolis, ο οποίος συσχέτισε τη χρήση τυχαίων αριθμών για τη δειγματοληψία ενός φαινομένου με το καζίνο της ομώνυμης πόλης. Η μέθοδος Monte Carlo κατατάχτηκε από το περιοδικό Computing Εngineering μεταξύ των δέκα κορυφαίων αλγορίθμων με τη «μεγαλύτερη επιρροή στην ανάπτυξη και την πρακτική της επιστήμης και της μηχανικής στον 20ό αιώνα».

metropolis1.png  Ο John von Neumann τον Μάρτιο του 1947 πρότεινε μια στατιστική προσέγγιση στο πρόβλημα της διάχυσης νετρονίων σε σχάσιμο υλικό. Οι Μητρόπουλος και Ulam υλοποίησαν τον υπολογισμό εκτελώντας μια πρωτότυπη στατιστική προσομοίωση, με χρήση γεννήτριας τυχαίων αριθμών στον πρώτο ηλεκτρονικό υπολογιστή γενικής χρήσης, τον ENIAC. O Μητρόπουλος βάφτισε την προσομοίωση ‘μέθοδο Monte Carlo’ (γιατί άκουγε τον Ulam να λέει για τον τον θείο του, τον Michał Ulam που πήγαινε συχνά στο Monte Carlo για να τζογάρει). Κάπως έτσι προέκυψε η πρώτη δημοσίευση για την πασίγνωστη πλέον μέθοδο Monte Carlo από τους Mητρόπουλο και Ulam.

Αυτό όμως που εντυπωσιάζει ακόμα πιο πολύ από την πολυσχιδή προσωπικότητα και την επιστημονική δραστηριότητα του Metropolis είναι κάτι που δεν έχει τύχει της δέουσας προσοχής και αναγνώρισης. Συσχετίζεται με τη φωτογραφική μαρτυρία που δείχνει τον Metropolis να παίζει σκάκι με τον υπολογιστή Maniac. Η ιδέα να κατασκευασθεί μια «μηχανή» που να μπορεί να ανταγωνιστεί τον άνθρωπο στις διανοητικές του ικανότητες υπήρχε στους προβληματισμούς των πρωταγωνιστών της τεχνητής νοημοσύνης κι όλοι τους ανεξαιρέτως γοητεύθηκαν από την ιδέα να προγραμματισθεί ένας υπολογιστής που παίζει σκάκι.Τα πρωτεία σε αυτήν την εποποιία ανήκουν στον Metropolis που προγραμμάτισε τον MANIAC να παίξει μια κανονική παρτίδα, αν και στην εναρκτήρια προσπάθεια χρειάστηκε να μειώσει το μέγεθος της σκακιέρας με ανάλογη μείωση των κομματιών, λόγω των απαιτήσεων σε χρόνο που χρειαζόταν ο MANIAC για να υπολογίσει κάθε του κίνηση. To εν λόγω επίτευγμα κατατάσσει τον Metropolis μεταξύ των ιδρυτικών πρωταγωνιστών της τεχνητής νοημοσύνης.Η επιστημονική του προσωπικότητα, σε συνδυασμό ίσως και με τα φυσικά χαρακτηριστικά και τον χαρακτήρα του, οδήγησε τον Woody Allen να τον επιλέξει στον ρόλο του επιστήμονα στην ταινία του Husbands and Wives (1992).Ο Nicholas Metropolis(*) τιμήθηκε με πολλά βραβεία στην Αμερική και το υπερσύγχρονο υπολογιστικό κέντρο του Los Alamos φέρει το όνομά του. Δεν είναι γνωστό αν επισκέφτηκε ποτέ την Ελλάδα ή αν είχε σχέσεις με τους συναδέλφους του Ελληνες της Αμερικής. Γνωστό όμως είναι ότι κανείς από τους φορείς που θα όφειλαν να τον τιμήσουν, όπως η Ακαδημία Αθηνών ή το ΕΚΠΑ, δεν το έκαναν μέχρι σήμερα. Μήπως η προβολή της ταινίας Οπενχάιμερ είναι μια χρυσή ευκαιρία να τον τιμήσει και η χώρα του;

– https://www.kathimerini.gr/life/science/562682056/nikolas-metropolis-enas-protoporos-tis-technitis-noimosynis-stin-omada-toy-openchaimer/

(*) Ο Νικόλαος Μητρόπουλος, εμφανίζεται στην αρχή της ταινίας του Woody Allen, ‘Husbands and Wives’, όπου παίζοντας τον ρόλο του επιστήμονα στην τηλεόραση, αναφέρει την γνωστή άποψη του Αϊνστάιν ‘ότι ο Θεός δεν παίζει ζάρια με το σύμπαν’, για να σχολιάσει ο Woody Allen ‘όχι παίζει κρυφτό’ (παραπέμποντας μάλλον στην απάντηση του Steven Hawking «Ο Θεός όχι μόνο παίζει ζάρια με το σύμπαν, αλλά και τα ρίχνει και σε μέρη που δεν μπορούμε να τα βρούμε»):

Κοινοποιήστε:

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

EUMED9: Η Ελλάδα υπέγραψε κοινή δήλωση για την αξιοποίηση της τεχνητής νοημοσύνης.

texniti-noimosyni-696x472.jpg
REUTERS/Dado Ruvic/Illustration

Η αποδοχή της κοινής δήλωσης πραγματοποιήθηκε από τον υπουργό Ψηφιακής Διακυβέρνησης Δημήτρη Παπαστεργίου,Η Ελλάδα μαζί με τις χώρες που μετείχαν σε διάσκεψη των EU MED9 χωρών στη Μάλτα υπέγραψαν κοινή δήλωση για την αξιοποίηση της Τεχνητής Νοημοσύνης.Η αποδοχή της κοινής δήλωσης πραγματοποιήθηκε από τον υπουργό Ψηφιακής Διακυβέρνησης Δημήτρη Παπαστεργίου, ενώ τη χώρα εκπροσώπησε στη διάσκεψη ο Γενικός Γραμματέας Πληροφοριακών Συστημάτων και Ψηφιακής Διακυβέρνησης, Δημοσθένης Αναγνωστόπουλος.Συγκεκριμένα, την κοινή δήλωση συνυπέγραψε η Ελλάδα με την Κροατία, την Κύπρο, τη Μάλτα, τη Γαλλία, την Ιταλία, την Πορτογαλία, την Ισπανία και τη Σλοβενία. Στη δήλωση, αναγνωρίζεται η δραστική επιρροή της Τεχνητής Νοημοσύνης στο ψηφιακό μέλλον και τονίζεται η αδήριτη ανάγκη της προάσπισης των δικαιωμάτων του πολίτη ταυτόχρονα με την προώθηση της καινοτομίας στην Ευρωπαϊκή Ένωση. Η Ευρωπαϊκή Πράξη για την Τεχνητή Νοημοσύνη δίνει το πλαίσιο στο οποίο θα διασφαλιστεί ότι η έρευνα, η ανάπτυξη και η χρήση της Τεχνητής Νοημοσύνης συμμορφώνεται με τα διεθνή ηθικά πρότυπα και τις αρχές που διασφαλίζουν τα ανθρώπινα δικαιώματα, το κράτος δικαίου και τις δημοκρατικές αρχές.Συνοπτικά, οι EU MED9 συμφώνησαν ότι από κοινού θα διερευνήσουν την πιθανότητα ανάπτυξης εφαρμογών Τεχνητής Νοημοσύνης για την αντιμετώπιση των προκλήσεων της κλιματικής αλλαγής στη Μεσόγειο καθώς και της βελτιστοποίησης της διαχείρισης των πόρων και της προώθησης βιώσιμων πρακτικών. Ακόμη, δεσμεύτηκαν για την ανάπτυξη τεχνολογιών Τεχνητής Νοημοσύνης με ανθρωποκεντρικό προσανατολισμό, ηθική υπευθυνότητα και με σεβασμό στα ανθρώπινα δικαιώματα. Επίσης, δεσμεύτηκαν για επένδυση σε ισχυρές υποδομές Τεχνητής Νοημοσύνης και σε κέντρα έρευνας και ανάπτυξης στην περιοχή της Μεσογείου καθώς και για τη χρήση των δυνατοτήτων της για τη βελτίωση των υπηρεσιών που παρέχει το Δημόσιο κάθε χώρας στους πολίτες της.Για τους σκοπούς αυτούς, οι χώρες ενθαρρύνουν την ανταλλαγή τεχνογνωσίας, έρευνας και βέλτιστων πρακτικών στο κομμάτι της Τεχνητής Νοημοσύνης και συμφωνούν να συνεργαστούν σε πρωτοβουλίες για την εκπαίδευση, την αναβάθμιση των δεξιοτήτων των πολιτών και του στελεχιακού δυναμικού, και την εξασφάλιση μιας «δεξαμενής» ταλέντων με εξειδίκευση στις τεχνολογίες της εποχής.

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Η τεχνητή νοημοσύνη σύντομα θα καταναλώνει την ενέργεια που χρειάζεται μια χώρα.

Μέχρι το 2027, οι υπολογιστές που τρέχουν εφαρμογές ΑΙ εκτιμάται ότι θα καταναλώνουν 85 με 134 τεραβατώρες ηλεκτρικής ενέργειας τον χρόνο.

ai-energy-superjumbo-v3.gif?w=1024

Τα αχανή κέντρα δεδομένων στα οποία τρέχουν οι εφαρμογές τεχνητής νοημοσύνης (ΑΙ) όλο και επεκτείνονται και σε λίγα χρόνια θα καταναλώνουν όση ηλεκτρική ενέργεια χρειάζεται μια ανεπτυγμένη χώρα, προειδοποιεί νέα μελέτη.Μετά το περυσινό ντεμπούτο του ChatGPT της OpenAI, το οποίο μέσα σε δύο μήνες συγκέντρωσε 100 εκατομμύρια χρήστες, εταιρείες όπως η Google και η Meta Platforms μπήκαν δυναμικά στο παιχνίδι της ΑΙ με επενδύσεις δεκάδων δισεκατομμυρίων δολαρίων.Μέχρι το 2027, εκτιμά η μελέτη που δημοσιεύεται στην επιθεώρηση Joule, οι υπολογιστές που τρέχουν εφαρμογές ΑΙ θα καταναλώνουν 85 με 134 τεραβατώρες ηλεκτρικής ενέργειας τον χρόνο, σύμφωνα με ένα μέσο σενάριο. Το νούμερο αντιστοιχεί χονδρικά στην ετήσια κατανάλωση της Αργεντινής, της Ολλανδίας ή της Ελβετίας και φτάνει γύρω στο 0,5% της παγκόσμιας κατανάλωσης.Οι απαιτήσεις της βιομηχανίας ΑΙ θα μπορούσαν έτσι να αυξήσουν τις παγκόσμιες εκπομπές άνθρακα, εκτός αν χρησιμοποιηθούν αποκλειστικά ανανεώσιμες πηγές ενέργειας.Το 2022, επισημαίνουν οι New York Times, η συνολική κατανάλωση των κέντρων δεδομένων σε όλο τον κόσμο, ανεξαρτήτως εφαρμογής, εκτιμάται ότι έφτανε το 1 με 1,3% της παγκόσμιας παραγωγής ηλεκτρικής ενέργειας.Η κατανάλωση αυτή όλο και αυξάνει, όμως η ΑΙ θα μπορούσε να κάνει την αύξηση πιο απότομη.Τη νέα μελέτη υπογράφει ο Άλεξ Ντε Βρις, διδακτορικός φοιτητής του Ελεύθερου Πανεπιστημίου του Άμστερνταμ και ιδρυτής της οργάνωσης Digiconomist που υπολογίζει την κατανάλωση ενέργειας στην ψηφιακή υποδομή του κρυπτονομίσματος Bitcoin.Η κατανάλωση της τεχνητής νοημοσύνης είναι αδύνατο να υπολογιστεί με ακρίβεια, δεδομένου ότι οι εταιρείες δεν αποκαλύπτουν λεπτομέρειες για τις υποδομές τους.Για να καταλήξει σε μια χονδρική εκτίμηση ο Ντε Βρις χρησιμοποίησε τις προβλέψεις για τις πωλήσεις των συστημάτων A100 της Nvidia, τον εξοπλισμό που χρησιμοποιείται σχεδόν στο 95% της αγοράς ΑΙ.Το τσιπ DGX A100 καταναλώνει για παράδειγμα 6,5 κιλοβάτ, ενώ το ισχυρότερο DGX H100 φτάνει τα 10,2 κιλοβάτ. Σύμφωνα με τις τελευταίες διαθέσιμες προβολές, η Nvidia θα παραδώσει περίπου 1,5 εκατ. τέτοια συστήματα έως το 2027.Η Nvidia αναμένεται να διατηρήσει την ηγετική θέση της τα επόμενα χρόνια, αν και εταιρείες όπως η Google αναπτύσσουν παράλληλα και τα δικά τους, εξειδικευμένα τσιπ, τα οποία σε κάποιες περιπτώσεις μπορεί να έχουν μικρότερες ενεργειακές απαιτήσεις.Δεδομένου πάντως ότι ο λογαριασμός ρεύματος είναι το μεγαλύτερο έξοδο ενός κέντρου δεδομένου, οι εταιρείες ημιαγωγών έχουν κίνητρο να μεγιστοποιήσουν την ενεργειακή απόδοση των τσιπ.

πηγή: https://www.in.gr/2023/10/10/in-science/technology/texniti-noimosyni-syntoma-tha-katanalonei-tin-energeia-pou-xreiazetai-mia-xora/

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Τα περιστέρια επιλύουν προβλήματα όπως η τεχνητή νοημοσύνη.

«Μπορεί να χουν ένα πολύ μικρό εγκέφαλο σε μέγεθος, αλλά σίγουρα είναι πολύ αποτελεσματικός όσον αφορά την ικανότητα μάθησης»

fx1_lrg-1.jpg?w=996 Τα περιστέρια αποδεικνύονται θαυμάσιοι ταξινομητές σύνθετων οπτικών ερεθισμάτων – λύνουν προβλήματα με τον τρόπο τηςτεχνητής νοημοσύνης! Ο Brandon Turner, καθηγητής ψυχολογίας στο Πανεπιστήμιο του Οχάιο, ανακάλυψε ότι οι μέθοδοι εκμάθησης των περιστεριών είναι παράξενα παρόμοιες με τις σύγχρονες τεχνικές τεχνητής νοημοσύνης [The pigeon as a machine: Complex category structures can be acquired by a simple associative model].

Μια νέα μελέτη διαπίστωσε ότι ο τρόπος με τον οποίο τα περιστέρια λύνουν προβλήματα δεν διαφέρει από την τεχνητή νοημοσύνη.Τα περιστέρια, που συχνά παραβλέπονται ως ενοχλητικά πτηνά, είναι στην πραγματικότητα εξαιρετικά ευφυή ζώα που μπορούν να θυμούνται πρόσωπα, να βλέπουν τον κόσμο με έντονα χρώματα, να πλοηγούν σε πολύπλοκες διαδρομές, να μεταφέρουν ειδήσεις, ακόμη και να σώζουν ζωές.Κατά τη διάρκεια της μελέτης, δόθηκε σε 24 περιστέρια μια ποικιλία από οπτικές εργασίες, μερικές από τις οποίες έμαθαν να κατηγοριοποιούν μέσα σε λίγες μέρες και άλλες μέσα σε λίγες εβδομάδες. Οι ερευνητές βρήκαν ενδείξεις ότι ο μηχανισμός που χρησιμοποιούσαν τα περιστέρια για να κάνουν σωστές επιλογές είναι παρόμοιος με την ίδια μέθοδο που χρησιμοποιούν τα μοντέλα τεχνητής νοημοσύνης για να κάνουν τις σωστές προβλέψεις.«Η συμπεριφορά των περιστεριών υποδηλώνει ότι η φύση έχει δημιουργήσει έναν αλγόριθμο που είναι εξαιρετικά αποτελεσματικός στην εκμάθηση πολύ απαιτητικών εργασιών. Όχι απαραίτητα με τη μεγαλύτερη ταχύτητα, αλλά με μεγάλη συνέπεια», δήλωσε ο Eντουαρντ Γουάσερμαν, συν-συγγραφέας της μελέτης και καθηγητής πειραματικής ψυχολογίας στο Πανεπιστήμιο της Αϊόβα.

ai-pigeon.jpg?w=1024

Στα περιστέρια εμφανίστηκαν μπροστά σε μια οθόνη διάφορα ερεθίσματα, όπως γραμμές διαφορετικού πλάτους, τοποθέτησης και προσανατολισμού, καθώς και τεμαχισμένοι και ομόκεντροι δακτύλιοι. Κάθε πουλί έπρεπε να ραμφίσει ένα κουμπί δεξιά ή αριστερά για να αποφασίσει σε ποια κατηγορία ανήκαν. Αν το έκαναν σωστά, έπαιρναν τροφή- αν το έκαναν λάθος, δεν είχε σνακ.«Τα περιστέρια δεν χρειάζονται κάποιο κανόνα», δήλωσε ο Μπράντον Τέρνερ, επικεφαλής συγγραφέας της μελέτης και καθηγητής ψυχολογίας στο Πολιτειακό Πανεπιστήμιο του Οχάιο. Αντίθετα, μαθαίνουν μέσω της δοκιμής και του λάθους. Για παράδειγμα, όταν τους δόθηκε μια οπτική εικόνα, ας πούμε της «κατηγορίας Α», οτιδήποτε έμοιαζε κοντά σε αυτήν, το κατέταξαν σωστά στην «κατηγορία Α», αξιοποιώντας την ικανότητά τους να αναγνωρίζουν ομοιότητες.Κατά τη διάρκεια των πειραμάτων, τα περιστέρια βελτίωσαν την ικανότητά τους να κάνουν σωστές επιλογές από 55% έως 95% του χρόνου, όταν επρόκειτο για κάποιες από τις απλούστερες εργασίες. Όταν τους παρουσιάστηκε μια πιο σύνθετη πρόκληση, η ακρίβειά τους αυξήθηκε από 55% σε 68%.Σε ένα μοντέλο τεχνητής νοημοσύνης, ο κύριος στόχος είναι η αναγνώριση μοτίβων και η λήψη αποφάσεων. Τα περιστέρια, όπως δείχνουν οι έρευνες, μπορούν να κάνουν το ίδιο. Μαθαίνοντας από τις συνέπειες, όταν δεν τους δίνεται ένα σφαιρίδιο τροφής, τα περιστέρια έχουν μια αξιοσημείωτη ικανότητα να διορθώνουν τα λάθη τους. Η λειτουργία της ομοιότητας είναι επίσης εύκαιρη στα περιστέρια, χρησιμοποιώντας την ικανότητά τους να εντοπίζουν ομοιότητες μεταξύ δύο αντικειμένων.«Μόνο με αυτούς τους δύο μηχανισμούς, μπορείτε να ορίσετε ένα νευρωνικό δίκτυο ή μια τεχνητή ευφυή μηχανή για να λύσετε βασικά προβλήματα κατηγοριοποίησης, δήλωσε ο Tέρνερ. «Επομένως είναι λογικό ότι οι μηχανισμοί που υπάρχουν στην τεχνητή νοημοσύνη υπάρχουν και στο περιστέρια».Οι ερευνητές στοχεύουν τώρα να συνεργαστούν με επιστήμονες που μελετούν τα περιστέρια και τον εγκέφαλό τους. Ελπίζουν ότι τα ευρήματα αυτά μπορούν να έχουν πρακτικές εφαρμογές για την καλύτερη κατανόηση των ανθρώπινων εγκεφαλικών βλαβών.«Ίσως μπορέσουμε να αποκτήσουμε περαιτέρω εικόνα για το τι συμβαίνει στον εγκέφαλο αυτού του μικρού πουλιού», δήλωσε ο Γουάσερμαν. «Μπορεί να χουν ένα πολύ μικρό εγκέφαλο σε μέγεθος, αλλά σίγουρα είναι πολύ αποτελεσματικός όσον αφορά την ικανότητα μάθησης». Κανένα περιστέρι δεν έπαθε κακό κατά τη διάρκεια της μελέτης.

https://www.huffingtonpost.gr/entry/anatreptike-ereena-ta-peristeria-epileoen-provlemata-opos-e-technete-noemosene_gr_653a317ce4b0783c4b9ff528 – https://www.theguardian.com/environment/2023/oct/26/pigeons-smart-ai-learning

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Αυτή είναι η «Διακήρυξη του Μπλέτσλεϊ» για την ασφάλεια της τεχνητής νοημοσύνης.

texniti_noimosinh-696x464.jpg
REUTERS/Aly Song

Η Βρετανία δημοσίευσε τα αποτελέσματα της συνόδου για τον έλεγχο της ΑΙ.Οι κυβερνήσεις αλλά και τα στελέχη πολλών μεγάλων εταιρειών της βιομηχανίας της τεχνολογίας έχουν θορυβηθεί από τους πιθανούς κινδύνους της ραγδαία εξελισσόμενης τεχνητής νοημοσύνης και προσπαθούν να δημιουργήσουν τις προϋποθέσεις για δημιουργία ενός πλαισίου ελέγχου της ανάπτυξης αυτής της τεχνολογίας που υπόσχεται πολλών ειδών επαναστάσεις στην ανθρωπότητα. Με πρωτοβουλία του Βρετανού πρωθυπουργού Ρίσι Σούνακ πραγματοποιήθηκε στη κεντρική Αγγλία η Σύνοδος για την Ασφάλεια της Τεχνητής Νοημοσύνης στην οποία πήραν μέρος κορυφαίες προσωπικότητες από τον πολιτικό, επιστημονικό και επιχειρηματικό κόσμο.Η Βρετανία δημοσιοποίησε σήμερα τη «Διακήρυξη του Μπλέτσλεϊ» που συμφωνήθηκε με διάφορες χώρες, μεταξύ των οποίων οι Ηνωμένες Πολιτείες και η Κίνα, με σκοπό να ενισχυθούν οι παγκόσμιες προσπάθειες για συνεργασία στην ασφάλεια της τεχνητής νοημοσύνης. Η διακήρυξη, που υπογράφεται από 28 χώρες και από την Ευρωπαϊκή Ένωση, δημοσιοποιήθηκε κατά την πρώτη ημέρα της Συνόδου για την Ασφάλεια της Τεχνητής Νοημοσύνης που διεξάγεται στο Μπλέτσλεϊ Παρκ, στην κεντρική Αγγλία.«Η Διακήρυξη ικανοποιεί σημαντικούς στόχους της συνόδου εγκαθιδρύοντας κοινή συμφωνία και ευθύνη για τους κινδύνους, τις ευκαιρίες και μία διαδικασία προς τα εμπρός για διεθνή συνεργασία για την ασφάλεια και την έρευνα της frontier AI, ιδιαίτερα μέσω μεγαλύτερης επιστημονικής συνεργασίας», ανέφερε η Βρετανία σε ξεχωριστή δήλωση που συνοδεύει τη διακήρυξη.Η διακήρυξη ενθαρρύνει τη διαφάνεια και τη λογοδοσία από παράγοντες που αναπτύσσουν τεχνολογία frontier AI στα σχέδιά τους να μετρήσουν, να επιτηρήσουν και να μετριάσουν δυνητικά επιβλαβείς δυνατότητες. «Είναι ένα επίτευγμα ορόσημο όπου οι μεγαλύτερες δυνάμεις του κόσμου στην τεχνητή νοημοσύνη συμφωνούν ότι είναι επιτακτικό να κατανοηθούν οι κίνδυνοι της τεχνητής νοημοσύνης βοηθώντας να διασφαλιστεί το μακροπρόθεσμο μέλλον των παιδιών και των εγγονιών μας», δήλωσε ο Βρετανός πρωθυπουργός Ρίσι Σούνακ.Η διακήρυξη θέτει μια ατζέντα που εστιάζει στην ταυτοποίηση των κινδύνων κοινής ανησυχίας και στην οικοδόμηση επιστημονικής αντίληψης για αυτούς, και επίσης στην οικοδόμηση διακρατικών πολιτικών προκειμένου αυτοί να μετριαστούν. «Αυτό περιλαμβάνει, μαζί με αυξημένη διαφάνεια από ιδιωτικούς παράγοντες που αναπτύσσουν δυνατότητες frontier AI, κατάλληλη αποτίμηση των μεθόδων μέτρησης, εργαλεία για ασφαλή δοκιμή, και ανάπτυξη σχετικών ικανοτήτων του δημόσιου τομέα και επιστημονικής έρευνας», αναφέρεται στη διακήρυξη.Η frontier AI αποτελείται από μοντέλα τεχνητής νοημοσύνης που προσφέρουν εξαιρετικά υψηλές δυνατότητες και πιστεύεται ότι θα μπορούσαν να διαδραματίσουν ρόλο στην αντιμετώπιση ορισμένων από τις πιο πιεστικές προκλήσεις για την ανθρωπότητα.

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Για πρώτη φορά μια νομική υπόθεση ολοκληρώνεται με τις δύο πλευρές να εκπροσωπούνται από δικηγόρους τεχνητής νοημοσύνης.

tehnitinoimosinidikigoros-696x464.jpg

Τα δύο συστήματα διαπραγματεύτηκαν ένα συμβόλαιο με συμφωνία τήρησης απορρήτου.Η τεχνητή νοημοσύνη εισβάλει πλέον παντού ακόμη και σε τομείς που είτε δεν πιστεύαμε ότι θα κάνει την εμφάνιση της, τουλάχιστον όχι ακόμη. Πρόσφατα έγινε γνωστό ότι σε μια δίκη στις ΗΠΑ ο κατηγορούμενος επέλεξε για συνήγορο ένα πρόγραμμα τεχνητής νοημοσύνης ενσωματωμένο σε κινητό τηλέφωνο. Η συσκευή ήταν σε ανοικτή ακρόαση όσο εξελισσόταν η δίκη και συμβούλευε στη διάρκεια της τον κατηγορούμενο στο πώς να ενεργεί και τι να λέει.Για πρώτη φορά έχουμε μια νομική διαδικασία και πιο συγκεκριμένα μια διαπραγμάτευση για ένα συμβόλαιο όπου τις δύο πλευρές εκπροσώπησαν δικηγόροι τεχνητής νοημοσύνης. Η βρετανική νομική εταιρεία Luminance δημιούργησε δύο προγράμματα τεχνητής νοημοσύνης που μπορούν να λειτουργούν ως δικηγόροι και αποφασίστηκε να αναλάβουν μια διαπραγμάτευση για ένα συμβόλαιο που ήθελε να συνάψει η δικηγορική εταιρεία με την εταιρεία ProSapient που είναι πελάτης της.Το ένα σύστημα ανέλαβε την εκπροσώπηση της δικηγορικής εταιρείας και το άλλο τον πελάτη της. Η συμφωνία επήλθε μέσα σε λίγα λεπτά και η μόνη ανθρώπινη συμβολή ήταν όταν οι εκπρόσωποι των δύο εταιρειών κλήθηκαν να την υπογράψουν. Εκπαιδευμένα σε ένα σύνολο δεδομένων άνω των 150 εκατομμυρίων νομικών εγγράφων τα δύο προγράμματα ήταν σε θέση να μάθουν από προηγούμενες συμβάσεις και να κατανοήσούν τομείς νομικού κινδύνου. Για παράδειγμα το συμβόλαιο περιελάμβανε αρχικά συμφωνία τήρησης απορρήτου διάρκειας έξι ετών αλλά ο δικηγόρος ΑΙ της Luminance αναγνώρισε ότι αυτό ήταν αντίθετο με την πολιτική της εταιρείας και την αναδιατύπωσε αυτόματα σε τριετή διάρκεια.Το γεγονός ότι η τεχνολογία της τεχνητής νοημοσύνης εξελίσσεται έτσι ώστε να μπορεί να εκτελεί και εργασίες που απαιτούν σύνθετη σκέψη και πνευματικότητα αναλαμβάνοντας ακόμη και καθήκοντα δικηγόρου ενισχύει την πρόβλεψη που έκανε πριν από λίγες μέρες ο Έλον Μασκ ότι κάποια στιγμή η τεχνητή νοημοσύνη θα είναι σε θέση να εκτελεί κάθε είδους ανθρώπινη εργασία με την ανθρωπότητα να πρέπει να διαχειριστεί προς όφελος της αυτή την εξέλιξη.Ο πρόεδρος της Νομικής Εταιρείας της Βρετανίας Νικ Έμερσον κλήθηκε να σχολιάσει την είδηση αυτή ανέφερε: «Προς το παρόν και πιθανώς για πολλά χρόνια ακόμη η τεχνητή νοημοσύνη δεν θα είναι σε θέση να αντικαταστήσει πλήρως τη λειτουργία της νομικής εμπειρογνωμοσύνης που παρέχεται από νομικά καταρτισμένους επαγγελματίες. Αυτό οφείλεται στο ότι οι πελάτες έχουν διαφορετικές ανάγκες και διαφορετικά προβλήματα που ένα μηχάνημα δεν μπορεί ακόμη να διαχειρστεί και χρειάζεται ανθρώπινη κρίση για να διασφαλιστεί ότι οι αυτοματοποιημένες αποφάσεις δεν οδηγούν σε πιθανά ψευδώς θετικά αποτελέσματα. Υπάρχει επίσης μια τέχνη στη διαπραγμάτευση που η τεχνητή νοημοσύνη είναι απίθανο να κυριαρχήσει»

Τα οφέλη
Από την πλευρά του ο Τζάγκερ Γκλουτσίνα επικεφαλής του τμήματος Ανθρώπινου Δυναμικού της Luminance αναφέρει ότι η τεχνολογία δεν στοχεύει στην αντικατάσταση των δικηγόρων, αλλά στην υποστήριξή τους ώστε να λειτουργούν καλύτερα.«Η τεχνητή νοημοσύνη αντιπροσωπεύει ένα νέο, πιο αποτελεσματικό κεφάλαιο στο μέλλον της νομικής εργασίας και ένα κεφάλαιο που θα μπορούσε να αλλάξει το παιχνίδι για πάντα. Αποθέτοντας τις καθημερινές διαπραγματεύσεις στα χέρια μιας τεχνητής νοημοσύνης που είναι νόμιμα εκπαιδευμένη και κατανοεί την επιχείρησή σας, ελευθερώνουμε τους δικηγόρους ώστε να εστιάσουν τη δημιουργικότητά τους εκεί που μετράει» λέει ο Γκλουτσίνα.Με τις νομικές ομάδες να ξοδεύουν έως και το 80 τοις εκατό του χρόνου τους για την εξέταση εγγράφων ρουτίνας, η Luminance υποστηρίζει ότι αυτά τα εργαλεία θα ελευθερώσουν τους δικηγόρους να επικεντρωθούν σε πιο σημαντικά ζητήματα.Η διαπραγμάτευση συμβάσεων και ειδικότερα οι συμφωνίες τήρησης απορρήτου μπορεί να είναι μια εξαιρετικά χρονοβόρα διαδικασία, καθώς το συμβόλαιο πρέπει να πηγαίνει πέρα δώθε μεταξύ διαφορετικών ομάδων. Ο Κόναγκ ΜακΚόρμικ ανώτερο στέλεχος της ProSapient, λέει ότι η νέα τεχνολογία θα επιταχύνει τη διαδικασία διαπραγμάτευσης, θα επιταχύνει το χρόνο για την υπογραφή και τελικά θα ενισχύσει την αποτελεσματικότητα σε επίπεδο επιχείρησης.Όλες αυτές οι απόψεις βρίσκονται φυσικά υπό την αίρεση της καλπάζουσας εξέλιξης της τεχνητής νοημοσύνης. Από εκεί που δεν υπήρχε ούτε καν σκέψη για χρήση της ΑΙ στο νομικό τομέα και μάλιστα στο πεδίο μέσα σε 12 μόλις μήνες μετά την εμφάνιση της γενετικής νοημοσύνης (ChatGPT) έχουμε συστήματα τεχνητής νοημοσύνης που διαπραγματεύονται συμβόλαια και λειτουργούν ως συνήγοροι στα δικαστήρια. Οπότε μένει να δούμε την εξέλιξη και χρήση της τεχνητής νοημοσύνης στον νομικό τομέα για να δούμε πώς θα τον επηρεάσει.

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Γιουβάλ Χαράρι: Η τεχνητή νοημοσύνη μπορεί να προκαλέσει παγκόσμια οικονομική καταστροφή.

xarari-696x464.jpg
πηγή φωτό Twitter/Harari

Απαισιόδοξη πρόβλεψη του διάσημου ιστορικού και συγγραφέα για την ΑΙ.Η τεχνητή νοημοσύνη θα μπορούσε να προκαλέσει οικονομική κρίση με «καταστροφικές» συνέπειες, σύμφωνα με τον διάσημο ιστορικό, φιλόσοφο και συγγραφέα Γιουβάλ Νόελ Χαράρι ο οποίος λέει ότι η πολυπλοκότητα της τεχνολογίας καθιστά δύσκολη την πρόβλεψη των κινδύνων της.Μιλώντας στην εφημερίδα Guardian o Χαράρι που αποτελεί ένα από τα πιο επιφανή μέλη της κοινότητας των επωνύμων που ανησυχούν για τις πιθανές παρενέργειες και κινδύνους της ραγδαία εξελισσόμενης τεχνολογίας τεχνητής νοημοσύνης. Αναφέρει ότι ένα σοβαρό ζήτημα που υπάρχει με την τεχνητή νοημοσύνη είναι ότι σε αντίθεση με τα πυρηνικά όπλα που υπάρχει ένα και μόνο επικίνδυνο σενάριο στην περίπτωση της τεχνητής νοημοσύνης δεν υπάρχει ένα «μεγάλο επικίνδυνο σενάριο» που να κατανοούν όλοι.«Με την τεχνητή νοημοσύνη, αυτό για το οποίο μιλάμε είναι ένας πολύ μεγάλος αριθμός επικίνδυνων σεναρίων, καθένα από τα οποία έχει μια σχετικά μικρή πιθανότητα να συμβεί αλλά που όλα μαζί αποτελούν υπαρξιακή απειλή για την επιβίωση του ανθρώπινου πολιτισμού» λέει ο Χαράρι.Ο συγγραφέας του μπεστ σέλερ βιβλίου ιστορίας Sapiens είπε ότι η παγκόσμια σύνοδος κορυφής για την ασφάλεια της τεχνητής νοημοσύνης στη Βρετανία ήταν ένα «πολύ σημαντικό βήμα προς τα εμπρός», επειδή οι κορυφαίες κυβερνήσεις είχαν συγκεντρωθεί για να εκφράσουν ανησυχία για την τεχνολογία και να κάνουμε κάτι για αυτό.«Ίσως το πιο ενθαρρυντικό ή ελπιδοφόρο πράγμα σε αυτό είναι ότι θα μπορούσαν να πείσουν όχι μόνο την Ευρωπαϊκή Ένωση, το Ηνωμένο Βασίλειο, τις Ηνωμένες Πολιτείες, αλλά και την κυβέρνηση της Κίνας να υπογράψουν τη δήλωση. Νομίζω ότι ήταν ένα πολύ θετικό σημάδι. Χωρίς παγκόσμια συνεργασία, θα είναι εξαιρετικά δύσκολο, αν όχι αδύνατο, να χαλιναγωγηθεί το πιο επικίνδυνο δυναμικό της τεχνητής νοημοσύνης» λέει ο Χαράρι.Η σύνοδος κορυφής ολοκληρώθηκε με μια συμφωνία μεταξύ 10 κυβερνήσεων -συμπεριλαμβανομένων της Βρετανίας και των ΗΠΑ αλλά όχι της Κίνας- της ΕΕ και μεγάλων εταιρειών τεχνητής νοημοσύνης, συμπεριλαμβανομένου του προγραμματιστή ChatGPT OpenAI και της Google, να συνεργαστούν για τη δοκιμή προηγμένων μοντέλων τεχνητής νοημοσύνης πριν και μετά την κυκλοφορία τους.
Τα σενάρια«Η τεχνητή νοημοσύνη είναι διαφορετική από κάθε προηγούμενη τεχνολογία στην ανθρώπινη ιστορία, επειδή είναι η πρώτη τεχνολογία που μπορεί να πάρει αποφάσεις από μόνη της, που μπορεί να δημιουργήσει νέες ιδέες από μόνη της και που μπορεί να μάθει και να εξελιχθεί μόνη της. Σχεδόν εξ ορισμού, είναι εξαιρετικά δύσκολο για τους ανθρώπους, ακόμη και για τους ανθρώπους που δημιούργησαν την τεχνολογία, να προβλέψουν όλους τους πιθανούς κινδύνους και προβλήματα. Οι κυβερνήσεις ανέφεραν την απειλή των συστημάτων τεχνητής νοημοσύνης που βοηθούν στη δημιουργία βιολογικών όπλων όταν προσπαθούσαν να εξηγήσουν τους κινδύνους στη παγκόσμια διάσκεψη αλλά υπήρχαν και άλλα σενάρια που θα μπορούσαν να εξεταστούν» λέει ο Χαράρι και αναφέρει σημειώνει τον χρηματοπιστωτικό τομέα ως έναν τομέα που ταιριάζει ιδανικά σε συστήματα τεχνητής νοημοσύνης και μια πιθανή πηγή μιας σοβαρής κρίσης που μπορεί να προκληθεί από την τεχνητή νοημοσύνη.«Αυτό είναι το ιδανικό πεδίο για την τεχνητή νοημοσύνη γιατί είναι μόνο δεδομένα. Τι θα συμβεί εάν η τεχνητή νοημοσύνη όχι μόνο αποκτήσει μεγαλύτερο έλεγχο στο χρηματοπιστωτικό σύστημα του κόσμου, αλλά αρχίσει να δημιουργεί νέες οικονομικά συστήματα και προϊόντα που μόνο η τεχνητή νοημοσύνη θα μπορεί να καταλάβει και κανένας άνθρωπος δεν θα μπορεί;» εξηγεί ο Χαράρι, προσθέτοντας ότι η χρηματοπιστωτική κρίση του 2007-08 προκλήθηκε από χρεόγραφα, όπως οι εξασφαλισμένα ομόλογα χρέους (CDOs) που λίγοι άνθρωποι κατανοούσαν και επομένως ρυθμίστηκαν ανεπαρκώς.«Η τεχνητή νοημοσύνη έχει τη δυνατότητα να δημιουργήσει χρηματοοικονομικά προϊόντα που θα είναι τάξεις μεγέθους πιο περίπλοκες από τα CDO. Και απλά φανταστείτε την κατάσταση όπου έχουμε ένα χρηματοπιστωτικό σύστημα που κανένας άνθρωπος δεν είναι σε θέση να κατανοήσει και επομένως δεν μπορεί επίσης να ρυθμίσει. Και τότε υπάρχει μια οικονομική κρίση και κανείς δεν καταλαβαίνει τι συμβαίνει» επισημαίνει ο διάσημος ιστορικός.

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Η επέλαση των ρομποπιθήκων της τεχνητής νοημοσύνης.

Το καλύτερο που μπορούμε να ελπίζουμε είναι μια ευγενής άμιλλα μεταξύ φυσικών προσώπων και τεχνητής νοημοσύνης.

kasparov-deep-blue.jpg?w=299

Στο έργο του «Περί γενέσεως και φθοράς, ο Αριστοτέλης, σχολιάζοντας τις αντιλήψεις του Λεύκιππου, κατά τον οποίο ο κόσμος προήλθε από τυχαίους συνδυασμούς ατόμων, παρατηρεί ότι τόσο οι τραγωδίες όσο και οι κωμωδίες απαρτίζονται από τα ίδια ομογενή άτομα: τους αλφαβητικούς χαρακτήρες. Διαφέρουν μόνο στη θέση και διάταξή τους.Τρεις αιώνες αργότερα, ο Κικέρωνας στο «De natura deorum» («Περί της φύσεως των Θεών») διαφωνεί και παρατηρεί ότι αν ίσχυε η ατομική κοσμοθεώρηση και σκορπούσαμε στο έδαφος μία μεγάλη ποσότητα πεσσών σκαλισμένων στο σχήμα γραμμάτων της αλφαβήτας, θα μπορούσαν να πέσουν τυχαία σε τέτοιες θέσεις ώστε να σχηματίσουν τα «Χρονικά» του Eννιου. Πολύ αμφιβάλλει όμως αν με αυτό τον τρόπο θα ήταν δυνατόν να προκύψει έστω και ένας στίχος του ποιητή. Στους στοχασμούς αυτούς, ο Χόρχε Λουίς Μπόρχες ανάγει την προέλευση του Θεωρήματος των Aπειρων Πιθήκων, σύμφωνα με το οποίο ένα εργοτάξιο φιλόπονων πιθήκων, οι οποίοι χτυπάνε στα κουτουρού τα πλήκτρα γραφομηχανών για ένα μεγάλο χρονικό διάστημα, είναι σχεδόν βέβαιο ότι κάποια στιγμή θα συγγράψουν τα άπαντα του Ουίλιαμ Σαίξπηρ. Παραλλαγές του θεωρήματος επιστρατεύουν από έναν ακαταπόνητο έως άπειρους αφοσιωμένους στην αποστολή τους πιθήκους, ενώ το προϊόν των κόπων τους ποικίλλει μεταξύ της παραγωγής μίας απλής πρότασης και ολόκληρης βιβλιοθήκης.Στα «Ταξίδια του Γκιούλιβερ», o Τζόναθαν Σουίφτ, ειρωνευόμενος το θεώρημα, επινοεί έναν καθηγητή, o οποίος χρησιμοποιεί συσκευή αποτελούμενη από εκατοντάδες κύβους, περασμένους σε σύρματα, στην κάθε πλευρά των οποίων είναι γραμμένη μία λέξη. Στρίβει μια μανιβέλα και οι κύβοι περιστρέφονται, εμφανίζοντας αυθαίρετους συνδυασμούς εδρών. Κάθε φορά που μια αλληλουχία λέξεων σχηματίζει πρόταση με νόημα, τη σημειώνει και συνδυάζοντας τις προτάσεις αυτές συγγράφει περισπούδαστες φιλοσοφικές μελέτες.Οι φιλόπονοι, όμως, πίθηκοι ουδόλως πτοούνται από τέτοιες ειρωνείες. Στις αρχές του 20ού αιώνα ο Εμίλ Μπορέλ στο «Mécanique Statistique et Irréversibilité» («Στατιστική Μηχανική και μη Αναστρεψιμότητα», 1913) και στο βιβλίο του, «Le Hasard» (1914), αλλά και ο Aρθουρ Eντιγκτον στο «Nature of the Physical World» («Η Φύση του Φυσικού Κόσμου», 1928), παίρνουν στα σοβαρά το Θεώρημα των Aπειρων Πιθήκων και το χρησιμοποιούν για να προσδιορίσουν τις χρονικές κλίμακες των θεμελίων της στατιστικής μηχανικής. Η πιθανότητα να παραγάγει ο ακαταπόνητος πίθηκος την τραγωδία του Aμλετ σε ένα χρονικό διάστημα της τάξης μεγέθους της ηλικίας του Σύμπαντος είναι μηδαμινή, αλλά όχι μηδενική.Και όσο πάμε, προοδεύουμε. Το 2011, ο Τζέσε Αντερσον σε συνεργασία με το «Amazon Elastic Compute Cloud» (Amazon EC2) και το «Hadoop» επιστρατεύει ως εικονικούς πίθηκους ένα εκατομμύριο μικρά προγράμματα που δημιουργούν τυχαίες ακολουθίες χαρακτήρων. Σύμφωνα με τον προπονητή τους, οι ψηφιακοί πίθηκοι κατάφεραν να γράψουν και τα 154 σονέτα καθώς και όλα τα 38 θεατρικά έργα του Σαίξπηρ, ξεκινώντας την 21η Αυγούστου 2011 με το «Το Παράπονο ενός Εραστή» και τελειώνοντας την 6η Οκτωβρίου 2011, 2 π.μ. ώρα Ειρηνικού, με το «Το Ημέρωμα της Στρίγγλας». Δεν μπορεί πάρα να τους συγχαρεί κανείς.Στις 9 Ιουνίου 1870 ο Κάρολος Ντίκενς φεύγει από τη ζωή αφήνοντας ημιτελές το «The Mystery of Edwin Drood» («Το Μυστήριο του Εντουιν Ντρουντ»), το τελευταίο του μυθιστόρημα. Εξι μόνο από τις προγραμματισμένες δώδεκα ενότητες έχει γράψει και δεν έχει αφήσει επαρκείς σημειώσεις για τις υπόλοιπες. Οσους τους τρώει η περιέργεια, ας μην απελπίζονται. Μπορούν να διαβάσουν τη λύση του μυστηρίου του Εντουιν Ντρουντ στην «Ολική Βιβλιοθήκη» του Χόρχε Λουίς Μπόρχες (1939). Στα ιλιγγιώδη ράφια της δημιουργημένης με τη συνδρομή των Απειρων Πιθήκων βιβλιοθήκης (θέμα της νουβέλας «Η βιβλιοθήκη της Βαβέλ», εμπνευσμένης από το έργο του γερμανού μαθηματικού Κουρντ Λάσβιτς), ο Μπόρχες τοποθετεί, μεταξύ άλλων, όχι μόνο τα άγραφα κεφάλαια του μυθιστορήματος του Ντίκενς, αλλά και τους «Αιγύπτιους» του Αισχύλου, την απόδειξη του τελευταίου θεωρήματος του Φερμά και το χαμένο γνωστικό Ευαγγέλιο του Βασιλείδη.Πλησιάζει μήπως η μέρα που θα αποκαλυφθεί η λύση του μυστηρίου του Εντουιν Ντρουντ, θα μάθουμε αν στους «Αιγυπτίους» του τελεσφορήσει το σχέδιο των Δαναΐδων να δολοφονήσουν τους συζύγους τους την πρώτη νύχτα του γάμου τους, θα σιγουρευτούμε ότι όντως είναι αδύνατον να χωρίσεις οποιαδήποτε δύναμη μεγαλύτερη της δεύτερης σε δύο ίσες δυνάμεις και θα μας αποκαλυφθεί πού εδράζεται η πίστη ότι ο Χριστός δεν σταυρώθηκε αλλά τη θέση του πήρε ο Σίμων ο Κυρηναίος, στον οποίο ο Κύριος έδωσε τη μορφή του;Αν και το 2003 έγινε στο Πανεπιστήμιο του Πλίμουθ ένα φιλόδοξο πείραμα με λοφιοφόρους μακάκους του είδους Macaca nigra, το οποίο δεν στέφθηκε με ιδιαίτερη με επιτυχία, επειδή δεν κατάφεραν να γράψουν τα άπαντα του Σαίξπηρ, αλλά μόνο πέντε σελίδες με το γράμμα «σίγμα», στο ιστορικό Θεώρημα η λέξη «πίθηκος» δεν χρησιμοποιείται κυριολεκτικά αλλά μεταφορικά, ως μία συσκευή που παράγει τυχαίες αλληλουχίες γραμμάτων της αλφαβήτας. Τα είδη όμως εξελίσσονται. Οι πίθηκοι μεταλλάσσονται. Τη θέση τους καταλαμβάνουν οι επαρκέστερες στρατιές των bots της τεχνητής νοημοσύνης, οι οποίες προβλέπεται ότι θα καταφέρουν να γεμίσουν τα ιλιγγιώδη ψηφιακά ράφια της «Ολικής Βιβλιοθήκης», απαλλαγμένης μάλιστα από τα άνευ νοήματος, φραστικά συνονθυλεύματα.Στις 20 Φεβρουαρίου του τρέχοντος έτους, το περιοδικό επιστημονικής φαντασίας «Clarkesworld» παύει να δέχεται υποβολές διηγημάτων από συγγραφείς. Ο εκδότης Νιλ Κλαρκ αποδίδει την απόφασή του στο ότι το περιοδικό βομβαρδίζεται από πληθώρα ιστοριών δημιουργημένων από προγράμματα τεχνητής νοημοσύνης. Αργά ή γρήγορα παρόμοιο δίλημμα θα αντιμετωπίσουν και άλλοι εκδότες περιοδικών και βιβλίων. Είναι άραγε αυτό το δοκίμιο, αυτό το μυθιστόρημα, αυτή η ποιητική συλλογή που θα πρέπει να αποφασίσω αν θα εκδώσω, προϊόν ανθρώπινης ή τεχνητής νοημοσύνης; Σε ποια από τις δύο κατηγορίες εμπίπτει ο πνευματικός δημιουργός;Ο Νιλ Κλαρκ δικαιολογεί την απόφαση του περιοδικού ισχυριζόμενος ότι πολλά από τα υποβαλλόμενα διηγήματα ήταν ξεκάθαρα γραμμένα από τεχνητή νοημοσύνη. Ο ισχυρισμός αυτός ελάχιστα πειστικός είναι. Αν ήταν εύκολο να διακρίνει ποια είναι γραμμένα από άνθρωπο και ποια από τεχνητή νοημοσύνη, θα δεχόταν τα μεν και θα απέρριπτε τα δε. Μάλλον δεν ήταν δυνατόν να προβεί σε αυτή τη διάκριση. Ισως σκέφτηκε και κάτι άλλο: Αν τα διηγήματα είναι καλά, τι σημασία έχει ποιος τα δημιούργησε; Και η επόμενη μοιραία σκέψη: Τι τους χρειάζομαι τους μεσάζοντες ανθρώπους συγγραφείς; Δεν θα είναι απλούστερο και οικονομικότερο, παρέχοντας συγκεκριμένες προδιαγραφές, να ζητάω εγώ ως εκδότης από πρόγραμμα τεχνητής νοημοσύνης της επιλογής μου να γράφει τις ιστορίες επιστημονικής φαντασίας τις οποίες θα δημοσιεύω;Εάν σήμερα προγράμματα τεχνητής νοημοσύνης είναι σε θέση να παράγουν ιστορίες επιστημονικής φαντασίας, εφάμιλλες εκείνων τις οποίες συγγράφουν φυσικά πρόσωπα, σε σημείο μάλιστα που ένας έμπειρος εκδότης να μην είναι σε θέση να τις ξεχωρίζει, το ίδιο επίκειται να συμβεί μελλοντικά και με άλλες κατηγορίες πνευματικών δημιουργημάτων. Θα είναι βέβαια ευκολότερο για την τεχνητή νοημοσύνη να παράγει σαπουνόπερες και δυσκολότερο Ευριπίδειες τραγωδίες με δοχμιακά δίστιχα και ιαμβικά τρίμετρα ή Δάντειες ωδές σε ενδεκασύλλαβο στίχο με terza rima. Μήπως όμως είναι πλέον θέμα χρόνου; Οι εξελίξεις στον τομέα αυτό είναι ραγδαίες.Αναμφίβολα η τεχνητή νοημοσύνη παίζει στα ψηφιακά της δάχτυλα τα περιεχόμενα του καταλόγου του Ζωρζ Πολτί, στον οποίο ο γάλλος συγγραφέας τo 1895 κατηγοριοποίησε άπασες τις δραματικές καταστάσεις που είναι δυνατόν να αποτελέσουν την υπόθεση οποιουδήποτε λογοτεχνήματος και οι οποίες δεν υπερβαίνουν τις 36. Στον αριθμό 36 είχε πρώτος καταλήξει ο Κάρλο Γκότζι τον 18ο αιώνα και σύμφωνα με τον Γκαίτε, ακόμα και ο μεγάλος Σίλερ, παρά τις κοπιώδεις του προσπάθειες, δεν κατάφερε να επινοήσει ούτε μία παραπάνω.Τι είναι, λοιπόν, 36 δραματικές καταστάσεις (κατά πολύ λιγότερες από τα 118 χημικά στοιχεία που απαρτίζουν την ύλη) για μια κραταιά τεχνητή νοημοσύνη; Παιχνιδάκι. Το κρίσιμο δε ερώτημα εάν η έμπνευση και η δημιουργικότητα είναι έμφυτα χαρίσματα, θεϊκά δώρα ή αν είναι εφικτό να αποτελέσουν αντικείμενο διδασκαλίας, απαντούν καταφατικά οι εκατοντάδες ανά τον κόσμο σχολές δημιουργικής γραφής από τις οποίες έχουν αποφοιτήσει ουκ ολίγοι συγγραφείς.Σύμφωνα με τον ιστότοπο «WHAT UNI?» 96 Πανεπιστήμια προσφέρουν 404 κύκλους σπουδών και παρέχουν πτυχία σε αυτόν τον τομέα. Οι σχολές αυτές δεν διατείνονται ότι καλλιεργούν ήδη υπάρχουσα, αλλά ότι διδάσκουν δημιουργικότητα. Αλλωστε εδώ και δεκαετίες κυκλοφορούν προγράμματα όπως το «Ideafisher», τα οποία προσφέρουν στους χρήστες ποικίλες μεθόδους για να «κατεβάζουν» πρωτότυπες ιδέες. Υποθέτω ότι η τεχνητή νοημοσύνη έχει αποστηθίσει τα curricula  όλων των ανωτέρω. Στη δε συχνά απευθυνόμενη προς επίδοξους συγγραφείς συμβουλή: «Γράφε για όσα ξέρεις!» η τεχνητή νοημοσύνη θα απαντούσε ευθαρσώς: «Τα ξέρω όλα, συνεπώς γράφω για όλα!»Ή, αγνοώντας την προτροπή του Αϊνστάιν «Never memorize something that you can look up», δυσανάλογη έμφαση των εκπαιδευτικών μας συστημάτων στην απομνημόνευση και συσσώρευση γνώσεων, η οποία έχει απολέσει τη χρησιμότητά της λόγω του ότι η πάσης φύσεως γνώση είναι πλέον ευκολότατα προσβάσιμη, σε αντίθεση με την καλλιέργεια της φαντασίας των μαθητών, που εισέρχονται στα σχολεία με πλούσια φαντασία και εξέρχονται με φαντασίες στραγγαλισμένες, ενδέχεται να οδηγήσει στο δυστοπικό αποτέλεσμα ευφυείς μηχανές να είναι επινοητικότερες και εφευρετικότερες από τα παιδιά μας.Όπως παλαιότερα εργάτες γης αιφνιδιάστηκαν από την επέλαση των τρακτέρ και αντικατασταθήκαν τελικά από αυτά, έτσι τώρα φυσικά πρόσωπα τα οποία ασχολούνται με την καλλιτεχνική και λογοτεχνική δημιουργία, φοβούμενα ότι τα περιμένει η ίδια μοίρα, επιζητούν προστασία ώστε να μην οδηγηθούν μαζικά στην ανεργία. Σεναριογράφοι στο Χόλιγουντ κηρύσσουν απεργίες αιτώντας να αποκλεισθούν οι ρομποπίθηκοι από την παραγωγή έργων λόγου, ενώ δημοφιλείς συγγραφείς προβαίνουν σε ομαδικές διακηρύξεις και καταθέτουν μηνύσεις, διαμαρτυρόμενοι ότι προστατευόμενα από την περί πνευματικής ιδιοκτησίας νομοθεσία έργα τους χρησιμοποιούνται χωρίς τη συγκατάθεσή τους για την εκπαίδευση προγραμμάτων τεχνητής νοημοσύνης.Οι πιθανότητες τέτοιου είδους αντιδράσεις να τελεσφορήσουν είναι, δυστυχώς, ελάχιστες. Παρθενογένεση, ως γνωστόν, στην τέχνη δεν υπάρχει. Αιώνες τώρα νεότεροι συγγραφείς μελετούν παλαιοτέρους, διδάσκονται, επηρεάζονται και δανείζονται από αυτούς μιμούμενοι πολλές φορές το ύφος τους. Αυτό κάνει και η τεχνητή νοημοσύνη πληρέστερα, ευρύτερα και αποτελεσματικότερα. Δεν πρόκειται, δηλαδή, για θέμα αρχής, αλλά κλίμακας. Οπως δεν είναι εύκολο να απαγορεύσει κανείς σε ένα φυσικό πρόσωπο να μελετάει, να διδάσκεται και να επηρεάζεται από έργα άλλων συγγραφέων ή σε έναν ζωγράφο να εκπαιδεύεται αντιγράφοντας αριστουργήματα παλαιοτέρων, ούτε για κάποια εποπτεύουσα αρχή να ασκεί αποτελεσματικό έλεγχο και αστυνόμευση επ’ αυτών, το ίδιο ισχύει και για τους ρομποπίθηκους.Ο κίνδυνος δεν έγκειται στο ότι μιμούνται ή αντιγράφουν λογοτεχνικά, εικαστικά ή μουσικά έργα. Αυτό δεν θα ήταν ιδιαίτερα ανησυχητικό, ούτε δύσκολο να αντιμετωπιστεί. Κάτι σοβαρότερο συμβαίνει και εξηγεί τον πάνδημο πανικό ο οποίος έχει ενσκήψει. Δεν μιμούνται, αλλά διδάσκονται. Δεν αντιγράφουν, αλλά αφομοιώνουν. Δεν «πιθηκίζουν», αλλά δημιουργούν.Υποθέτω ότι ίσως και εδώ λειτουργεί μηχανισμός παρόμοιος με εκείνον που αναγνωρίστηκε από τον Χέγκελ, και εκφράστηκε στην «Dialektik der Natur» («Διαλεκτική της Φύσης») του Ένγκελς: όταν η ποσοτική αύξηση σε κάποιο σύστημα υπερβεί κάποιο όριο, μια ποιοτική αλλαγή επέρχεται.Ο Γαργαντούας της τεχνητής νοημοσύνης έχει καταβροχθίσει και χωνέψει τέτοιες τεράστιες ποσότητες δεδομένων που ίσως έχει ξεπεράσει ή επίκειται να ξεπεράσει το κρίσιμο ποσοτικό όριο, επιφέροντας εκπληκτική ποιοτική αλλαγή. Πληκτρολόγηση μιας απλής εντολής θα αρκεί: Γράψε μου μια κωμωδία όπως θα την έγραφε σήμερα ο Αριστοφάνης με θέμα την κλιματική αλλαγή! Ζωγράφισέ μου τη Λίζα Μινέλι όπως θα τη ζωγράφιζε αν ζούσε ο Ντα Βίντσι! Ολοκλήρωσέ μου την Ημιτελή Συμφωνία του Σούμπερτ! Και σύντομα παρακαλώ!Αν δούμε το θέμα από μια ευρύτερη σκοπιά και αν υποθέσουμε ότι η τεχνητή νοημοσύνη φτάνει κάποτε στο σημείο να παράγει πρωτότυπα λογοτεχνικά, μουσικά και ζωγραφικά έργα εφάμιλλα ή ανωτέρα ενός Σαίξπηρ, ενός Μπετόβεν ή ενός Ντα Βίντσι, αυτό θα έπληττε συγκεκριμένα φυσικά πρόσωπα και επαγγελματικούς κλάδους, αλλά για την ανθρωπότητα συνολικά θα μπορούσε να θεωρηθεί ευπρόσδεκτη έως ευεργετική εξέλιξη.Σε κάθε περίπτωση θα αποδειχθεί, φοβάμαι, υπεραισιόδοξη η ελπίδα ότι οι επερχόμενες τεκτονικές ανακατατάξεις είναι δυνατόν να αποτραπούν με απεργίες και διαδηλώσεις σεναριογράφων, δικαστικές διώξεις εκ μέρους συγγραφέων και νομοθετικές ρυθμίσεις, οι οποίες δεν θα είναι δύσκολο να παρακαμφθούν από κραταιούς οργανισμούς. Σίγουρα όχι με επιθέσεις νεολουδιτών οπλισμένων με βαριοπούλες στις εγκαταστάσεις της PwC, της KPMG, της Microsoft και άλλων εταιρικών κολοσσών που επενδύουν δισεκατομμύρια στην πρωτοποριακή αυτή τεχνολογία. Όσο για τα πνευματικά δικαιώματα έργων τα οποία χρησιμοποιούνται για την εκπαίδευση προγραμμάτων τεχνητής νοημοσύνης μάλλον οι διαβουλεύσεις θα καταλήξουν σε συμβιβασμό, σύμφωνα με τον οποίο οι εκπαιδευτές θα καταθέτουν σε Λογοτεχνικές Ενώσεις και άλλους φορείς ένα ποσόν το οποίο θα διανέμεται στα μέλη τους.Το καλύτερο που μπορούμε να ελπίζουμε είναι μια ευγενής άμιλλα μεταξύ φυσικών προσώπων και τεχνητής νοημοσύνης. Οι οιωνοί όμως δεν είναι ευνοϊκοί.Στις 10 Φεβρουαρίου του 1996 στη Νέα Υόρκη το «Απέραντο Γαλάζιο» («Deep Blue»), ένας υπολογιστής της ΙΒΜ, μέτρησε τις πνευματικές δυνάμεις του απέναντι στον δημιουργό του: τον Ανθρωπο, εκπροσωπούμενο από τον παγκόσμιο πρωταθλητή και κορυφαίο σκακιστή Γκάρι Κασπάροφ. Λίγοι πίστευαν ότι μια σκακιστική ιδιοφυΐα θα ήταν δυνατόν να ηττηθεί από μια μηχανή σε μπλε κέλυφος. Και όμως! Στο τέλος του παιχνιδιού, ο Κασπάροφ καλύπτει συντετριμμένος το πρόσωπο με τις παλάμες, αποδεχόμενος την πικρή ήττα.

garry-1024x768-1.jpg?w=1024

Μετά τον θρίαμβο του «Deep Blue», ο Άνθρωπος εναποθέτει την πίστη, την ανωτερότητά του στο «Γκο», ένα αρχαίο κινέζικο παιχνίδι στρατηγικής που αιώνες αργότερα οδήγησε τον άγγλο μαθηματικό Τζον Χόρτον Κόνγουεϊ στην ανακάλυψη των σουρεαλιστικών αριθμών (surreal numbers), και το οποίο, εκτός από υπολογιστική δύναμη, απαιτεί κάτι σχεδόν αδιανόητο για έναν υπολογιστή να διαθέτει: διαίσθηση. Και όμως! Και όμως! Το 2017, ο παγκόσμιος πρωταθλητή του «Γκο», Κε Τζιέ, υφίσταται συντριπτική ήττα από τον «AlphaGo» της «Google DeepMind».Η κίνηση οδυνηρής αποδοχής ήττας του Κε Τζιέ καθρεφτίζει την αντίστοιχη του Κασπάροφ πριν από είκοσι ένα χρόνια. Ο «Deep Blue» είχε το χάρισμα της τεράστιας υπολογιστικής δύναμης. Ο «AlphaGo» διέθετε κάτι παραπάνω: νευρωνικά δίκτυα και δυνατότητες στιγμιαίας ενισχυτικής μάθησης.Ας ελπίζουμε ότι δεν μας μέλλεται να βιώσουμε παρόμοιες σκηνές συνυποψήφιων μυθιστορηματογράφων και ποιητών με φυσική υπόσταση να κρύβουν με απόγνωσή το πρόσωπο στα χέρια, τη μέρα που κάποια εφαρμογή τεχνητής νοημοσύνης θα κερδίζει θριαμβευτικά το πρώτο της βραβείο Νομπέλ Λογοτεχνίας.Οι ρομποπίθηκοι καλά οργανωμένοι και έμπλεοι αυτοπεποίθησης, ακάθεκτοι επελαύνουν. Επίθεση καβαλάρηδων της Αποκάλυψης ή σωτήρια άφιξη του ιππικού;

Κείμενο: Ευγένιος Τριβιζάς – https://www.in.gr/2023/11/19/in-science/episthmes/epelasi-ton-rompopithikon-tis-texnitis-noimosynis/

Ο Ευγένιος Τριβιζάς είναι εγκληματολόγος – συγγραφέας

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Οι agents του μέλλοντος – Οι σκέψεις του Μπιλ Γκέιτς σχετικά με την εξέλιξη της ΑI.

Οι agents του μέλλοντος – Οι σκέψεις του Μπιλ Γκέιτς σχετικά με την εξέλιξη της ΑI
JOHN KEATLEY/REUTERS

Η τεχνολογία της τεχνητής νοημοσύνης καλπάζει και ο Μπιλ Γκέιτς περιγράφει ένα εγγύς μέλλον που φαντάζει δυστοπικό και παραδεισένιο ταυτόχρονα.

Κανείς δεν μπορεί να αρνηθεί ότι η εξέλιξη της τεχνητής νοημοσύνης είναι η μεγάλη επανάσταση της εποχής μας. Το έγκριτο αμερικανικό περιοδικό «The New Yorker» κυκλοφορεί μάλιστα αυτή την εβδομάδα με ένα τεύχος εξ ολοκλήρου αφιερωμένο στις προκλήσεις και τις δυσκολίες των νέων δεδομένων.Κανείς βέβαια δεν είναι πιο κατάλληλος για να κάνει προβλέψεις για το μέλλον της τεχνολογίας από τον Μπιλ Γκέιτς, ο οποίος πριν από λίγες ημέρες έκανε μια μακροσκελή ανάλυση στο gatesnotes.com όπου περιγράφει ορισμένες σκέψεις του σχετικά με την εξέλιξη της ΑI: «Μέσα στα επόμενα πέντε χρόνια, ο τρόπος με τον οποίο χρησιμοποιούμε την τεχνολογία σήμερα θα αλλάξει εντελώς. Δεν θα χρειάζεται να έχετε διαφορετικές εφαρμογές για διαφορετικές εργασίες. Απλώς θα λέτε στη συσκευή σας, σε απλή και καθημερινή γλώσσα, τι θέλετε να κάνετε. Και ανάλογα με το πόσες πληροφορίες θα έχετε επιλέξει να μοιραστείτε μαζί της, το λογισμικό της θα μπορεί να ανταποκριθεί με έναν εντελώς προσωποποιημένο τρόπο, επειδή θα έχει βαθιά κατανόηση της ζωής σας.Στο εγγύς μέλλον, οποιοσδήποτε είναι συνδεδεμένος στο Διαδίκτυο θα μπορεί να έχει έναν προσωπικό βοηθό χάρη στην τεχνητή νοημοσύνη, η οποία θα έχει εξελιχθεί πολύ σε σχέση με τη σημερινή τεχνολογία. Αυτός ο τύπος λογισμικού – κάτι που ανταποκρίνεται στη φυσική γλώσσα και μπορεί να ολοκληρώσει πολλές διαφορετικές εργασίες με βάση τις γνώσεις του για τον χρήστη – ονομάζεται agent. Σκέπτομαι τους agents εδώ και σχεδόν 30 χρόνια και έγραψα για αυτούς στο βιβλίο μου «The Road Ahead» το 1995, αλλά μόλις πρόσφατα έγιναν εφικτοί λόγω της προόδου στην τεχνητή νοημοσύνη.Οι agents δεν πρόκειται μόνο να αλλάξουν τον τρόπο με τον οποίο όλοι αλληλεπιδρούν με τους υπολογιστές. Θα ανατρέψουν επίσης τη βιομηχανία λογισμικού, φέρνοντας τη μεγαλύτερη επανάσταση στους υπολογιστές από τότε που περάσαμε από την πληκτρολόγηση εντολών στο πάτημα εικονιδίων».

Ενας γενναίος (τελείως) νέος κόσμος

Για να δούμε πόσο δραματικές αλλαγές θα επιφέρουν οι agents, αρκεί να κάνουμε μία σύγκριση με τα εργαλεία τεχνητής νοημοσύνης που είναι διαθέσιμα σήμερα. Τα περισσότερα από αυτά είναι bots. Περιορίζονται σε μία εφαρμογή και γενικώς παρεμβαίνουν μόνο όταν τους το ζητάμε – δεν βελτιώνονται ούτε μαθαίνουν τις προτιμήσεις και τις συνήθειές μας. Οι agents θα είναι πιο έξυπνοι και προνοητικοί, ικανοί να προτείνουν πράγματα προτού το ζητήσουμε, και θα εκτελούν εργασίες σε όλες τις εφαρμογές. Σύμφωνα με τον συνιδρυτή της Microsoft, o πιο συναρπαστικός αντίκτυπος των AI agents είναι ο τρόπος με τον οποίο θα εκδημοκρατίσουν κάποιες υπηρεσίες που σήμερα είναι πολύ ακριβές για τους περισσότερους ανθρώπους. Θα έχουν ιδιαίτερα μεγάλη επιρροή σε τέσσερις τομείς: υγειονομική περίθαλψη, εκπαίδευση, παραγωγικότητα και ψυχαγωγία/αγορές.Οσον αφορά τον τομέα της ιατρικής φροντίδας, ο Γκέιτς θεωρεί ότι οι agents θα μπορούν να δίνουν βασικές συμβουλές και να καθοδηγούν τον ασθενή σχετικά με το αν χρειάζεται ή όχι θεραπεία. Φυσικά αυτή θα είναι ίσως η τεχνολογία που θα αναπτυχθεί πιο αργά γιατί πρόκειται για ζητήματα ζωής και θανάτου. Η παροχή βοήθειας σε ασθενείς και εργαζομένους στον τομέα της υγειονομικής περίθαλψης θα είναι ιδιαίτερα επωφελής για τους ανθρώπους στις φτωχές χώρες, όπου πολλοί δεν μπορούν ποτέ να επισκεφθούν γιατρό. Η φροντίδα της ψυχικής υγείας είναι ένα άλλο παράδειγμα. Οι agents που θα είναι καλά εκπαιδευμένοι σε τέτοια ζητήματα θα καταστήσουν τη θεραπεία πολύ πιο προσιτή και ευκολότερη. Θα είναι διαθέσιμοι οποτεδήποτε και δεν θα χάνουν ποτέ την υπομονή τους. Θα μπορούσαν, με την άδειά μας πάντα, να παρακολουθούν ακόμη πιο αποτελεσματικά τις φυσικές μας αντιδράσεις σε κάθε συνεδρία μέσω του έξυπνου ρολογιού μας – αν π.χ. η καρδιά μας αρχίζει να χτυπάει γρήγορα όταν μιλάμε για ένα πρόβλημα με το αφεντικό μας – και να προτείνουν πότε θα ήταν καλύτερο να επισκεφθούμε έναν άνθρωπο ψυχοθεραπευτή, ψυχολόγο ή ψυχίατρο.Ο Μπιλ Γκέιτς πιστεύει ότι οι agents δεν θα αντικαταστήσουν τους δασκάλους, αλλά θα τους απελευθερώσουν από τις γραφειοκρατικές πτυχές της δουλειάς τους, ώστε να μπορούν να αφιερώνουν περισσότερο χρόνο στα σημαντικά tasks. Θα τους βοηθήσουν επίσης να κάνουν πιο εξατομικευμένη διδασκαλία. Εάν ένας εκπαιδευτικός γνωρίζει ότι σε ένα παιδί αρέσει το Minecraft και η Τέιλορ Σουίφτ, θα χρησιμοποιήσει το Minecraft για να του διδάξει τον υπολογισμό του όγκου και του εμβαδού των σχημάτων και τους στίχους της σουπερστάρ της ποπ για να του διδάξει τι σημαίνει αφήγηση και τα σχήματα ομοιοκαταληξίας. Η εμπειρία θα είναι πολύ πιο πλούσια – με γραφικά και ήχο, για παράδειγμα.

«Οι agents θα μπορούσαν να επηρεάσουν τον τρόπο με τον οποίο αλληλεπιδρούμε με τους φίλους και την οικογένειά μας»

Εάν έχετε μια ιδέα για μια επιχείρηση, ένας εξελιγμένος agent θα σας βοηθήσει να συντάξετε ένα επιχειρηματικό σχέδιο, να στήσετε μια παρουσίαση για αυτήν και ακόμη και να δημιουργήσετε εικόνες για το πώς μπορεί να μοιάζει το προϊόν σας. Εάν πάλι θέλετε απλώς να αγοράσετε μια κάμερα, θα ζητήσετε από τον agent σας να διαβάσει όλες τις κριτικές για εσάς, να τις συνοψίσει, να σας κάνει μια σύσταση και να την παραγγείλει μόλις λάβετε εσείς την απόφαση. Εάν θέλετε να παρακολουθήσετε το «Star Wars», ο agent θα γνωρίζει εάν έχετε συνδρομή στην κατάλληλη υπηρεσία streaming ψυχαγωγικού περιεχομένου και, αν δεν έχετε, θα σας προτείνει να εγγραφείτε. Θα μπορεί επίσης να σας κάνει πλήρως εξατομικευμένες προτάσεις για ενημέρωση και ψυχαγωγία, προσαρμοσμένες αποκλειστικά στα ενδιαφέροντά σας. Το CurioAI, μια εφαρμογή που δημιουργεί ένα podcast για οποιοδήποτε θέμα βρίσκετε συναρπαστικό, μας δίνει ήδη μια γεύση τού τι έρχεται.Καθώς οδεύουμε προς αυτή τη νέα πραγματικότητα, τα ζητήματα του απορρήτου και της ασφάλειας στο Διαδίκτυο θα γίνουν ακόμη πιο επείγοντα από ό,τι είναι ήδη. Θα θέλετε να μπορείτε να αποφασίσετε σε ποιες πληροφορίες έχει πρόσβαση ο agent, ώστε να είστε βέβαιοι ότι τα δεδομένα σας κοινοποιούνται μόνο σε άτομα και εταιρείες που επιλέγετε. Προφανώς και χρειάζεται ένα ισχυρό ρυθμιστικό πλαίσιο από το κράτος, όμως, όπως λέει ο Γκέιτς, κάποια άλλα θέματα δεν θα κριθούν από εταιρείες και κυβερνήσεις: «Για παράδειγμα, οι agents θα μπορούσαν να επηρεάσουν τον τρόπο με τον οποίο αλληλεπιδρούμε με τους φίλους και την οικογένειά μας. Σήμερα μπορείτε να δείξετε σε κάποιον ότι νοιάζεστε για εκείνον με το να θυμάστε λεπτομέρειες για τη ζωή του – για παράδειγμα, τα γενέθλιά του. Αλλά όταν ξέρουν ότι ο agent σας πιθανότατα σας το υπενθύμισε και φρόντισε να τους στείλει λουλούδια, θα έχει την ίδια αξία για εκείνους η χειρονομία σας; Φανταστείτε επίσης ότι αν οι agents γίνουν τόσο αποτελεσματικοί, όλοι θα μπορούν να έχουν υψηλή ποιότητα ζωής χωρίς να εργάζονται τόσο πολύ. Σε ένα τέτοιο μέλλον, τι θα έκαναν οι άνθρωποι με τον χρόνο τους; Θα ήθελε κανείς ακόμα να πάει στο Πανεπιστήμιο όταν ο agent του έχει όλες τις απαντήσεις; Μπορούμε να έχουμε μια ασφαλή και ακμάζουσα κοινωνία όταν οι περισσότεροι άνθρωποι έχουν υπερβολικά πολύ ελεύθερο χρόνο στα χέρια τους;».

https://www.tovima.gr/print/vimagazino/oi-agents-lftou-mellontos/

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Συνεχίζεται το θρίλερ στην OpenAI, απόρρητο σούπερ πρόγραμμα τεχνητής νοημοσύνης η αιτία του εμφυλίου; (βίντεο)

qstar-696x392.jpg

Νέα στοιχεία έρχονται στο φως για την κρίση που ξέσπασε στην εταιρεία του ChatGPT.Όπως ήταν αναμενόμενο τα όσα συμβαίνουν στην εταιρεία OpenAI έχουν πάρει την μορφή κατά άλλους δραματικής μίνι τηλεοπτικής σειράς κατά άλλους σαπουνόπερας. Μια εβδομάδα μετά την απρόσμενη απόλυση του συνιδρυτή και επικεφαλής της εταιρείας Σαμ Άλτμαν οδηγώντας σε παραίτηση και τον πρόεδρο της εταιρείας Γκρεγκ Μπρόκμαν με τους δύο να επιστρέφουν θριαμβευτικά λίγες μέρες αργότερα και το ΔΣ να απομακρύνεται από τα καθήκοντα του οι πληροφορίες για το όσα οδήγησαν σε αυτή την πρωτοφανή στα χρονικά της βιομηχανίας της τεχνολογίας υπόθεση διαδέχονται η μια την άλλη.Την στιγμή που όλες οι εμπλεκόμενες πλευρές δηλαδή τόσο τα μέλη του ΔΣ που απέλυσαν τον Άλτμαν όσο και ο ίδιος δεν λένε απολύτως τίποτε για όσα οδήγησαν στον εμφύλιο που ξέσπασε στην εταιρεία και κόντεψε να την τινάξει στον αέρα αφού σχεδόν το σύνολο των εργαζομένων δήλωσε ότι θα φύγει αν δεν επιστρέψει ο Άλτμαν και δεν αποχωρήσουν τα μέλη του ΔΣ που τον απέπεμψαν.Οι φήμες διαδέχονταν η μια την άλλη και το Reuters για πρώτη φορά παρουσιάζει μια εκδοχή της ιστορίας που μοιάζει συμβατή με τα όσα ακούγονταν μέχρι σήμερα. Σύμφωνα με το ειδησεογραφικό πρακτορείο στα εργαστήρια της εταιρείας παράλληλα με τα υπόλοιπα πρότζεκτ που έτρεχαν είχε ξεκινήσει η ανάπτυξη ενός νέου προγράμματος γενετικής νοημοσύνης.Το πρόγραμμα που είχε λάβει την ονομασία Q* (Q-Star) εξελισσόταν ταχύτατα και σύμφωνα με το ρεπορτάζ του Reuters είχε αρχίσει να δείχνει εκπληκτικές ικανότητες κυρίως στον μαθηματικό τομέα και έδειχνε ότι θα μπορούσε σύντομα να γίνει το πιο προηγμένο πρόγραμμα γενετικής νοημοσύνης με δυνατότητες απρόβλεπτες. Κάποιοι από τους ερευνητές της εταιρείας που δεν αναφέρεται αν εμπλέκονταν στο πρότζεκτ ή απλά ενημερώθηκαν για αυτό έστειλαν σύμφωνα πάντα με το ρεπορτάζ ενημερωτικό σημείωμα στα ανώτερα στελέχη της OpenAI και πιθανώς και σε μέλη του ΔΣ που πιθανώς γνώριζαν ότι δεν είχαν πολύ στενή σχέση με τον Άλτμαν. Το σημείωμα αυτό υποδείκνυε σοβαρούς κινδύνους ασφαλείας και κυρίως κινδύνους για την ανθρωπότητα από αυτό το σούπερ νέο πρόγραμμα ΑΙ.Σύμφωνα με αυτή την εκδοχή τα μέλη του ΔΣ δεν γνώριζαν ούτε την ύπαρξη του προγράμματος ούτε την επικινδυνότητα του για αυτό και αποφάσισαν να εκδιώξουν άμεσα τον Άλτμαν κατηγορώντας τον στην ουσία για απόκρυψη σημαντικών πληροφοριών για την εταιρεία και διαρρέοντας ότι προχωρούσε σε ανάπτυξη τεχνολογιών που δεν ήταν σύμφωνες με το καταστατικό αλλά και την φιλοσοφία της εταιρείας.Όπως είναι ευνόητο ανοίγει τώρα ένας νέος κύκλος ερωτηματικών και παρασκηνίου. Άπαντες θα θέλουν να μάθουν περισσότερες πληροφορίες για αυτό το πρόγραμμα αλλά έχει και ενδιαφέρον αν το ρεπορτάζ ισχύει ότι δεν ήταν όλοι οι εργαζόμενοι και ειδικά οι ερευνητές της OpenAI τυφλά πιστοί στον Άλτμαν αλλά κάποιοι εξ αυτών είχαν σοβαρές επιφυλάξεις για ότι συνέβαινε στην εταιρεία και δεν δίστασαν να παρακάμψουν το αφεντικό τους και να ενημερώσουν τη διοίκηση εν αγνοία του.

Παράλληλα την στιγμή που όπως φαίνεται η Microsoft βγήκε κερδισμένη από αυτή την κρίση που ξέσπασε στην OpenAI και ουσιαστικά απέκτησε πλέον τον έλεγχο της οι ανταγωνιστές (Google, Metα κ.α) έχουν ξεκινήσει την υλοποίηση ενός σχεδίου αποδυνάμωσης της OpenAI. Οι διαρροές από τους τεχνολογικούς κολοσσούς που αναπτύσσουν τεχνολογίες τεχνητής νοημοσύνης αναφέρουν ότι ετοιμάζονται να προσεγγίσουν αν δεν έχουν ήδη προσεγγίσει πελάτες της OpenAI προσφέροντας τους προτάσεις συνεργασίες με καλύτερους όρους και κυρίως προσφέροντας τους μεγαλύτερη ασφάλεια και λιγότερη εξάρτηση από αυτή που είχαν στην OpenAI και τα προϊόντα της, ειδικότερα από το ChatGPT.Έχει γίνει γνωστό ότι πελάτες της OpenAI που οι εταιρείες τους βασίζονται απόλυτα στις τεχνολογίες της OpenAI θορυβήθηκαν όταν διαφάνηκε ότι μπορεί η εταιρεία να καταρρεύσει και άρχισαν να ξανασκέφτονται το επίπεδο συνεργασίας και εξάρτησης που είχαν μαζί της. Μένει να δούμε τώρα πόσο γρήγορα θα μπορέσει ο Άλτμαν να συμμαζέψει την κατάσταση και να επιστρέψει η εταιρεία του στην κανονικότητα αλλά και τι στρατηγική θα ακολουθήσει από εδώ και πέρα έχοντας πλέον να λογοδοτεί όχι σε μέλη του ΔΣ που είχαν ιδρύσει την εταιρεία αλλά σε ένα ΔΣ που αποτελείται από επενδυτές.

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Περί ενσυναίσθησης.

Η μηχανή ιδιοποίησης αλλότριων παθών

Πώς η εγκεφαλική μηχανή της ενσυναίσθησης επιτρέπει στον άνθρωπο και σε άλλα ζώα να υπερβαίνουν τα αυτιστικά τους όρια;
Ο επιστημονικός όρος «ενσυναίσθηση» δεν είναι απλώς ένας επιστημονικός νεολογισμός αλλά μια θεμελιώδης νοητική λειτουργία: αναφαίρετο δομικό και λειτουργικό συστατικό των σχέσεών μας με τους άλλους, αλλά και με τον έμβιο κόσμο που μας περιβάλλει.

mixanes1.webp?w=700

Η πιο πρόσφατη, νεωτερική εκδοχή της σκοτεινής νοητικής λειτουργίας της ενσυναίσθησης θα μπορούσε να αναζητηθεί στα κείμενα των ρομαντικών συγγραφέων του δέκατου ένατου αιώνα Herder και Novalis, οι οποίοι θεωρητικοποίησαν την υπερβατική εμπειρία ενότητας της υποκειμενικής ψυχής με τις άλλες ψυχές και κυρίως με τη Φύση. Εν τούτοις, μόνο μετά το 1906, με τη δημοσίευση της μονογραφίας του Γερμανού φιλόσοφου-ψυχολόγου Theodor Lipps με τίτλο «Ενσυναίσθηση και αισθητική απόλαυση», η έννοια αυτή θα αρχίσει να κάνει δειλά δειλά την εμφάνισή της στα φιλοσοφικά σαλόνια της Κεντρικής Ευρώπης. Σύμφωνα με τον Lipps, η ενσυναίσθηση αποτελεί την αναγκαία συνθήκη όχι μόνο κάθε αισθητικής εμπειρίας αλλά και της βαθύτερης ενότητας του υποκειμένου με τον κόσμο που τον περιβάλλει.Το επόμενο αποφασιστικό βήμα στην εξέλιξη αυτής της έννοιας θα πραγματοποιηθεί χάρη στην πρωτοποριακή φαινομενολογική προσέγγιση της Edith Stein, νεαρής μαθήτριας του μεγάλου φιλόσοφου Ε. Husserl. Το 1916 στη διδακτορική της διατριβή με τίτλο «Περί του προβλήματος της ενσυναίσθησης», η Stein θα καταφέρει να μετατρέψει σε φιλοσοφικό πρόβλημα ό,τι μέχρι τότε ήταν ένα «βασανιστικό αίνιγμα», όπως ο ίδιος ο Husserl είχε περιγράψει την ενσυναίσθηση. Για τη νεαρή Εβραία φιλόσοφο, αντίθετα, η ενσυναίσθηση αποτελεί την κοινή ανθρώπινη εμπειρία «που βρίσκεται στη βάση όλων των μορφών νόησης μέσω των οποίων προσεγγίζουμε ένα άλλο πρόσωπο».Πρόκειται, σύμφωνα με τη Stein, για το φαινομενικά παράδοξο ενέργημα νοητικής αυθυπέρβασης, μέσω της οποίας γίνεται οικεία η αλλότρια πραγματικότητα της εμπειρίας των άλλων, ό,τι εμείς δεν είμαστε, ό,τι δεν έχουμε ακόμη βιώσει και, ενδεχομένως, ό,τι δεν θα βιώναμε ποτέ. Αυτό το βιωματικά ανοίκειο χάρη στην ενσυναίσθηση μετατρέπεται σε συστατικό στοιχείο της βαθύτατης και διευρυμένης νοητικά εμπειρίας μας αυτού που υπάρχει πέρα και έξω από εμάς.

Από τη φαινομενολογία στην ψυχολογία της ενσυναίσθησης

Αποτελεί ασφαλώς τραγική ειρωνεία της Ιστορίας το ότι η πρώτη σοβαρή ερευνήτρια και θεωρητικός της ενσυναίσθησης θα πέσει η ίδια θύμα της ανύπαρκτης ενσυναίσθησης των ναζί: αφού, λόγω της εβραϊκής καταγωγής της, η Stein θα μεταφερθεί σε στρατόπεδο συγκέντρωσης και θα εξοντωθεί σε έναν θάλαμο αερίων. Πολλές δεκαετίες αργότερα, ωστόσο, οι πρωτοποριακές διαισθήσεις της Stein θα επιβεβαιωθούν από την επιστημονική διερεύνηση των φαινομένων της ενσυναίσθησης και ειδικότερα από τις σχετικές ψυχολογικές, ηθολογικές και τις πιο πρόσφατες νευροβιολογικές έρευνες των εκδηλώσεών της.Σε ό,τι αφορά το πεδίο των ψυχολογικών ερευνών, τις τελευταίες δεκαετίες θεωρείται επαρκώς επιβεβαιωμένο ότι η ικανότητα να βιώνει κάποιος σε πρώτο πρόσωπο, δηλαδή να «ταυτίζεται» με τις νοητικές καταστάσεις, τις υποκειμενικές εμπειρίες ή με τα προσωπικά συναισθήματα των άλλων, είναι μια νοητική ικανότητα που εμφανίζεται πολύ νωρίς, ήδη από το δεύτερο ή τρίτο έτος της ζωής ενός παιδιού. Σύμφωνα με τον John Bowlby, κορυφαίο Βρετανό ψυχίατρο και παιδοψυχολόγο, αποφασιστικό ρόλο στην πρώιμη ανάπτυξη της ανθρώπινης ικανότητας για ενσυναίσθηση παίζει η «ψυχοσωματική προσκόλληση» του νεογέννητου στους γονείς του ή σε όποιον το φροντίζει καθημερινά.Αλλά και από πλήθος ηθολογικών ερευνών -η Ηθολογία μελετά τις βιολογικές προϋποθέσεις και τους περιβαλλοντικούς παράγοντες της συμπεριφοράς των ζωών- επιβεβαιώνεται ότι το φαινόμενο της γονεϊκής προσκόλλησης των βρεφών αποτελεί τη βάση και την προϋπόθεση για τη μετέπειτα ανάπτυξη της ενσυναίσθησης, τόσο στα ζώα όσο και στους ανθρώπους. Για παράδειγμα, έχει διαπιστωθεί στα δελφίνια, στους ελέφαντες, σε πλήθος άλλα είδη θηλαστικών και σε όλα ανεξαιρέτως τα πρωτεύοντα. Τα ζώα αυτά, αλλά και κάποια είδη πτηνών, εκδηλώνουν μεγάλη ενσυναίσθηση για τον πόνο των άλλων, ειδικότερα αν με το ζώο που υποφέρει υπάρχει κάποια συναισθηματική προσκόλληση, π.χ. όταν γνωρίζονται από καιρό.Κοντολογίς, τόσο στους ανθρώπους όσο και στα πιο εξελιγμένα ζώα, «χωρίς συναισθηματική προσκόλληση δεν υπάρχει ενσυναίσθηση», όπως θα υποστηρίξει με τις έρευνές του ο Boris Cyrulnik, επιφανής νευρολόγος ηθολόγος και πρώην διευθυντής του Κέντρου Ηθολογικών Ερευνών στην Τουλόν. Και όσο μεγαλύτερη είναι η συναισθηματική οικειότητα τόσο μεγαλύτερη θα είναι και η ενσυναισθητική απόκριση.Από την άλλη, οι εκδηλώσεις της ιδιαίτερα αναπτυγμένης ανθρώπινης ικανότητας ιδιοποίησης, εξοικείωσης και ψυχονοητικής συνταύτισης με τους άλλους εξαρτάται σε μεγάλο βαθμό από την ενσυναισθητική μας ευαισθησία. Όπως το θέτει και ο διάσημος ψυχολόγος Daniel Coleman, «η ενσυναίσθηση οικοδομείται πάνω στην αυτεπίγνωση. Οσο περισσότερο ανοιχτοί είμαστε στις ίδιες μας τις συγκινήσεις τόσο περισσότερο ικανοί θα είμαστε στο να αντιληφθούμε τα συναισθήματα. (βλ. «Η συναισθηματική νοημοσύνη», εκδ. Ελληνικά Γράμματα, σελ. 148).Πρόκειται, προφανώς, για μια ιδιαίτερη ψυχονοητική ικανότητα που θα πρέπει να σχετίζεται άμεσα με τη λειτουργική οργάνωση και τη δομική πολυπλοκότητα του νευρικού συστήματος όσων τη διαθέτουν, να εξαρτάται δηλαδή από τον εγκέφαλό τους. Ποιο είναι, όμως, το νευρωνικό ρίζωμα της ενσυναίσθησης και ποιες οι βιολογικές-κοινωνικές προϋποθέσεις αυτής της ικανότητας;

Ανακαλύπτοντας τον ρόλο των «νευρώνων-κατόπτρων»

Γιατί η χαρά ή η λύπη, η μεγάλη ταραχή ή η πλήξη, η επιθετικότητα ή η ηρεμία που «βλέπουμε» στα πρόσωπα και το σώμα των άλλων είναι μεταδοτικές και πώς μπορούν να επηρεάζουν βαθύτατα τη διάθεσή μας; Γιατί το χασμουρητό, το γέλιο ή το κλάμα είναι τόσο κολλητικά; Η ικανότητά μας να «συν-αισθανόμαστε» και να βιώνουμε -κυριολεκτικά σωματικά- τα αλλότρια πάθη και τις συγκινήσεις των άλλων αποτελεί την αναγκαία συνθήκη και την προϋπόθεση κάθε ανθρώπινης διαπροσωπικής σχέσης και συνεπώς ολόκληρης της κοινωνικής μας ζωής. Αν οι σύγχρονες επιστήμες του εγκεφάλου και του νου χρησιμοποιούν τον όρο «ενσυναίσθηση» για να περιγράψουν τη μη λεκτική ικανότητά μας (καθώς όλων των πρωτευόντων θηλαστικών) να αντιλαμβανόμαστε τα συναισθήματα των άλλων, τότε πού ακριβώς εδράζεται αυτή η ικανότητα;Όπως και για κάθε άλλη νοητική μας ικανότητα, η εξήγησή της θα πρέπει, πρωτίστως, να αναζητηθεί στα περίπλοκα νευρωνικά κυκλώματα του εγκεφάλου μας. Ναι, αλλά πού ακριβώς; Και από ποιες νευροβιολογικές δομές εξαρτάται η παράδοξη ικανότητα της ενσυναίσθησης; Από πολύ καιρό ήταν γνωστό στους νευρολόγους ότι οι ασθενείς που είχαν υποστεί -ύστερα από κάποια νευρολογική πάθηση ή από τραυματισμό- σοβαρή βλάβη στον μετωπιαίο λοβό του εγκεφάλου τους εκδήλωναν, μεταξύ άλλων, και μια περίεργη δυσλειτουργία: ενώ ήταν απολύτως ικανοί να κατανοούν το σημασιολογικό περιεχόμενο των λέξεων που άκουγαν, δεν ήταν πλέον σε θέση να αναγνωρίσουν το συναισθηματικό περιεχόμενο ή τις ψυχικές «αποχρώσεις» τους, ενώ ασθενείς με βλάβη σε διαφορετικά εγκεφαλικά κέντρα έχαναν την ικανότητα όχι τόσο να κατανοούν αλλά να εκφράζουν τα συναισθήματά τους.Βασιζόμενη στη μελέτη τέτοιων κλινικών περιπτώσεων, η επιφανής Αμερικανίδα νευρολόγος Leslie Brothers πρότεινε, το μακρινό 1979, την πρώτη κλινικά τεκμηριωμένη εξήγηση της ενσυναίσθησης. Συγκεκριμένα, υποστήριξε ότι στις εκδηλώσεις ενσυναίσθησης εμπλέκονται κυρίως το μεταιχμιακό σύστημα και η αμυγδαλή, δύο εγκεφαλικές δομές που ήταν γνωστό ότι παίζουν αποφασιστικό ρόλο για τη γέννηση και την επεξεργασία των συναισθημάτων. Όμως, έπειτα από μία δεκαετία, έγινε σαφές ότι τα πράγματα ήταν πολύ πιο σύνθετα. Και αυτή η κλινική εξήγηση της απώλειας ενσυναίσθησης, ως μιας νευρολογικής πάθησης κάποιων βαθύτερων δομών ή «κέντρων» του εγκεφάλου, αποδείχτηκε όχι απλώς ανεπαρκής, αλλά και παραπλανητική.Αποφασιστικής σημασίας για την αποκάλυψη των πραγματικών εγκεφαλικών υποδομών που εμπλέκονται σε αυτή την ιδιαίτερη νοητική ικανότητα, δηλαδή των αναγκαίων και ικανών νευρωνικών κυκλωμάτων για την παραγωγή της ενσυναίσθησης, ήταν μια τυχαία παρατήρηση που έκαναν, στις αρχές της δεκαετίας του 1990, κάποιοι άγνωστοι, τότε, Ιταλοί ερευνητές, που εργάζονταν στο Πανεπιστήμιο της Πάρμας. Κατά τη διάρκεια ενός κοινού πειράματος, οι Giacomo Rizzolati, Vittorio Gallese και Leonardo Fogassi διαπίστωσαν ότι οι πίθηκοι μακάκοι πρέπει να διέθεταν ένα εντελώς άγνωστο κύκλωμα νευρικών κυττάρων, δηλαδή κάποιους ειδικούς νευρώνες που τους επέτρεπαν να καταγράφουν και να αναγνωρίζουν τις κινήσεις ή τους ήχους των ατόμων που βρίσκονταν γύρω τους.Τοποθετώντας μικροηλεκτρόδια στον εγκεφαλικό φλοιό των πιθήκων, οι ερευνητές αυτοί μελετούσαν το πώς αντιδρούσαν αυτά τα πειραματόζωα σε διάφορα κινητικά ερεθίσματα, π.χ. όταν έπιαναν μια ρώγα σταφύλι ή μια μπανάνα για να τη φάνε. Όμως, ένα πρωί, μπαίνοντας στο εργαστήριο, ο Leonardo Fogassi πήρε ασυναίσθητα μια ρώγα σταφύλι και την έβαλε στο στόμα του. Τότε συνέβη κάτι πολύ περίεργο: την ίδια στιγμή ενεργοποιήθηκαν κάποιοι νευρώνες στον μετωπιαίο προκινητικό φλοιό του πιθήκου που τον κοιτούσε να τρώει το σταφύλι. Με άλλα λόγια, ο δικτυωμένος στον τομογράφο εγκέφαλος του πιθήκου που κοιτούσε τον ερευνητή να τρώει το σταφύλι αντέδρασε σαν να είχε πραγματοποιήσει ο ίδιος αυτή την κίνηση!

Οι «νευρώνες-καθρέφτες» ονομάστηκαν έτσι επειδή ενεργοποιούνται σαν καθρέφτες στο εσωτερικό του εγκέφαλου, όταν κάνουμε εμείς οι ίδιοι ή όταν βλέπουμε να κάνουν οι άλλοι κάποια πράγματα. Ετσι, αυτοί οι νευρώνες ενεργοποιούνται όταν χασμουριόμαστε αλλά και όταν βλέπουμε κάποιον άλλον να χασμουριέται. Για πολλούς νευροεπιστήμονες και σύγχρονους ψυχολόγους τα εγκεφαλικά κυκλώματα από «νευρώνες-κάτοπτρα» είναι το κλειδί για την επιστημονική κατανόηση της ενσυναίσθησης, της ψυχολογικής ταύτισης, της αλληλεγγύης με τους άλλους.
Γι’ αυτό και ένας κορυφαίος νευροεπιστήμονας όπως ο V.R. Ramachandran θα δηλώσει απερίφραστα ότι: «Οι νευρώνες-κάτοπτρα θα αποδειχτούν για την ψυχολογία ό,τι ήταν η ανακάλυψη του DNA για τη βιολογία: το πλαίσιο εντός του οποίου μπορούμε να εξηγήσουμε μια σειρά από νοητικές ικανότητες που μέχρι σήμερα παρέμεναν μυστηριώδεις και μη προσπελάσιμες πειραματικά».

Από αυτή την τυχαία παρατήρηση, τα επόμενα χρόνια, ο Giacomo Rizzolati και η ομάδα του θα οικοδομήσουν την επαναστατική και ευρέως αποδεκτή θεωρία τους για τους νευρώνες-κάτοπτρα (mirror-neurons). Και τα επόμενα χρόνια αυτοί οι ερευνητές κατάφεραν, με μια σειρά από πρωτοποριακές έρευνες, να επιβεβαιώσουν την αρχική τους υποψία. Εντόπισαν δηλαδή ανατομικά και αποσαφήνισαν την ακριβή εγκεφαλική λειτουργία των περίφημων έκτοτε «νευρώνων-καθρεφτών».Σήμερα, διαθέτουμε πλήθος εμπειρικά δεδομένα και επαρκή επιχειρήματα για το ότι στο εσωτερικό του εγκεφάλου μας -καθώς και των περισσότερων θηλαστικών ή των πτηνών- υπάρχει όντως αυτό το ειδικό δίκτυο νευρώνων που ενεργοποιείται όταν ο εγκέφαλος ανιχνεύει κάποια κινητική μεταβολή και, γενικότερα, κάθε αλλαγή δραστηριότητας που πραγματοποιείται είτε από το ίδιο το ζώο είτε από κάποιον άλλον οργανισμό. Το πώς ακριβώς σχετίζονται αυτές οι νευρωνικές δομές, ή αν πράγματι επαρκούν για να εξηγήσουμε την παρουσία αμοιβαίας κατανόησης, αλληλεγγύης και ενσυναίσθησης, θα το εξετάσουμε αναλυτικά στο επόμενο άρθρο.

 https://www.efsyn.gr/epistimi/mihanes-toy-noy/412930_i-mihani-idiopoiisis-allotrion-pathon

 

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Η τεχνητή νοημοσύνη χρειάζεται ανοιχτά μοντέλα.

1387648-696x435.jpeg

Γιατί είναι επιθυμητά τα ανοικτά μοντέλα.Για εμάς τους προγραμματιστές το μεγαλύτερο ίσως απόνερο από την ιστορία με την OpenAI είναι ο στιγματισμός της “ανοιχτότητας”. Στην πληροφορική, εδώ και δεκαετίες το επίθετο “ανοιχτό” έχει πολλαπλές χρήσεις: αναφέρεται ανοικτά πρότυπα όπως το GSM και το 5G στις επικοινωνίες ή το HTTP και το ανοιχτό λογισμικό γενικότερα. Η λογική όμως είναι ξεκάθαρη: υπάρχει ένα κοινός τόπος ανοιχτός και διαθέσιμο προς όλους, και από εκεί και πέρα ο ανταγωνισμός λειτουργεί προσθετικά.Στην περίπτωση της τεχνητής νοημοσύνης (ή της μηχανικής μάθησης για να ακριβολογούμε) το ζήτημα της ανοιχτότητας είναι λίγο πιο περίπλοκο.Ας ξεκινήσουμε από τα βασικά: για να φτιάξει κάποιος ένα μεγάλο γλωσσικό μοντέλο (LLM) χρειάζεται τρία πράγματα: πρωτογενή δεδομένα (συνήθως κείμενο), λογισμικό που να επεξεργάζεται το κείμενο και να τα μετατρέπει σε αριθμούς και ισχυρή υπολογιστική υποδομή για να τρέξει το λογισμικό. Όταν συνδυαστούν αυτά τα τρία, στην τελική του μορφή το αποτέλεσμα της εκπαίδευσης του μοντέλου είναι ένα μεγάλος πλήθος από αριθμούς – παραμέτρους, Το λεγόμενο “μέγεθος του μοντέλου”. Αυτές οι παράμετροι ποσοτικοποιηθούν την ευφυΐα του μοντέλου και το πώς αυτό γεννά νέο περιεχόμενο.Για να έχουμε μια εικόνα των μεγεθών: Αυτή στιγμή που τα μεγαλύτερα ανοικτά / δωρεάν μοντέλα κυμαίνονται από λίγα δις έως 70Β το Llama2 της Meta ή το Falcon 180B. Το κλειστό GPT-3.5 που ήταν το ιστορικό σημείο καμπής είχε 175δις παραμέτρους, ενώ το GPT-4 φέρεται να έχει 1.5τρις!Στην περίπτωση του δημοφιλούς ChatGPT, και παρόλο το παραπλανητικό του ονόματος της OpenAI, τίποτα δεν είναι ανοικτό. Υπάρχουν όμως άλλα μοντέλα τα οποία κινούνται στο φάσμα της ανοιχτότητας. Όπως το Llama2 το οποίο είναι “τύποις ανοικτά” υπό την έννοια ότι το οι τελικές παράμετροι είναι διαθέσιμες για οποιονδήποτε να της χρησιμοποιήσει, ο πηγαίος κώδικάς όμως που χρησιμοποιήθηκε για την παραγωγή των παραμέτρων δεν είναι διαθέσιμος. Και αυτό οδηγεί σε μερικούς ιδιαίτερους περιορισμούς. Για παράδειγμα, η άδεια χρήσης του Llama2 αναφέρει ρητά πως επιτρέπεται η χρήση του από παρόχους για να εξυπηρετήσουν μέχρι 700εκατομμύρια χρήστες το μήνα. Ένας ξεκάθαρος τρόπος να αποκλειστούν ανταγωνιστές της Meta απο τη χρήση του.Γιατί όμως είναι επιθυμητά τα ανοικτά μοντέλα; Πρώτο και βασικότερο αποτρέπουν τη δημιουργία μονοπωλίων. Δε χρειαζόμαστε μια νέα πανίσχυρη Βρετανική Εταιρεία Ανατολικών Ινδιών που αντί για μπαχαρικά και μετάξι θα εμπορεύεται τεχνητή νοημοσύνη.  Μπορεί το ευρύ κοινό να έχει ταυτίσει την ΤΝ με την OpenAI και το ChatGPT, αλλά οι πρακτικοί χρήστες έχουμε στη διάθεσή μας μια πληθώρα από ανοιχτά μοντέλα τα οποία είναι πολλές φορές “αρκούντως καλά” για τις εφαρμογές μας. Τί κάνουμε σε αυτή την περίπτωση; Ανατρέχουμε στην παγκόσμια κατάταξη των μοντέλων (ναι υπάρχει Open LLM Leaderboard!) και παίρνουμε από το ράφι αυτή που μας εξυπηρετεί.Τα ανοιχτά μοντέλα είναι πιο οικονομικά. Τα υπάρχοντα κλειστά μοντέλα εκπαιδεύτηκαν σε περιβάλλον χαμηλών επιτοκίων και εύκολα διαθέσιμων κεφαλαίων και αυτό τα κάνει να φαίνονται ακόμη φθηνά. Το κόστος τους όμως θα αυξηθεί και θα γίνει κριτήριο επιλογής.  Σε αυτό το σενάριο τα ανοιχτά μοντέλα θα πρέπει να αποτελούν ρεαλιστική εναλλακτική. Και εδώ θα θέλαμε να τονίσουμε το ρόλο των κρατών – που θα είναι άλλωστε και από τους πρώτους μεγάλου πελάτες προϊόντων ΤΝ, άρα θα επηρεάσουν την πορεία της αγοράς γενικότερα.Οφείλουν τα κράτη να πριμοδοτήσουν ή/και απαιτήσουν τη χρήση ανοιχτών μοντέλων από τους προμηθευτές τους. Να μην επαναληφθούν δηλαδή τα λάθη των προηγούμενων δεκαετιών όπου το δημόσιο χρήμα δαπανιόταν σε κλειστό λογισμικό μιας χρήσης και σε φαραωνικά έργα πολλών εκατομμυρίων, ενώ υπήρχαν δωρεάν και ανοιχτές επιλογές με πολύ μικρότερο κόστος.Προωθούν την καινοτομία και τη συνεργασία. Ένα μοντέλο το οποίο πέρα από τις παραμέτρους, κάνει διαθέσιμο και τον πηγαίο κώδικά του, επιτρέπει σε κάποιον προγραμματιστή να το επεξεργαστεί τμηματικά, βελτιώνοντας για παράδειγμα τα αποτελέσματα για την ελληνική γλώσσα ή να το κάνει καλύτερο στοχεύοντας συγκεκριμένους γνωστικούς τομείς όπως την Ιατρική. Δίνεται έτσι ευκαιρία η καινοτομία των μοντέλων να επεκταθεί προς όλες τις κατευθύνσεις χωρίς να προτιμώνται πρόσκαιρα κερδοφόροι τομείς έναντι των υπολοίπων φερ’ειπείν η διαφήμιση έναντι των ανθρωπιστικών τομέων.Τα ανοιχτά μοντέλα διασφαλίζουν τις ίσες ευκαιρίες και την ισότιμη πρόσβαση στη γνώση. Το κόστος την ΤΝ θα αυξηθεί μεν, θα αυξηθεί όμως και η χρήση τους σε πεδία όπως η εκπαίδευση, όπου κάθε μαθητής θα μπορεί ενδεχομένως να έχει τον δικό του προσωπικό δάσκαλο. Αν δεν έχουμε εξίσου ποιοτικά ανοιχτά μοντέλα διαθέσιμα, θα έχουμε μαθητές πολλαπλών ταχυτήτων όπου όποιος έχει καλύτερη οικονομική άνεση, θα εξασφαλίζει έναν καλύτερο προσωπικό δάσκαλο για το παιδί του.Τα ανοιχτά μοντέλα προσφέρουν περισσότερη διαφάνεια. Το λεγόμενο “explainability” θα μας απασχολήσει έντονα τα επόμενα χρόνια. Από τώρα ακόμα, όταν ενδιαφερόμενα μέλη ρωτούν “γιατί το τάδε μοντέλο έβγαλε το δείνα αποτέλεσμα” η απάντηση είναι “δε γνωρίζουμε”, και αυτό διότι πλέον είναι τόσο περίπλοκα που η λογική τους δεν μπορεί να εξηγηθεί και να αποτυπωθεί σε ένα χαρτί, δυσχαιρένοντας τη λογοδοσία των υπευθύνων – τί σημαίνει άραγε ευθύνη σε αυτό το πλαίσιο; Με τα κλειστά γλωσσικά μοντέλα μάλιστα, στα οποία δε γνωρίζουμε ούτε καν τα δεδομένα με τα οποία εκπαιδεύτηκαν – πόσο μάλλον τις παραμέτρους τους – τότε η λογοδοσία και η διαφάνεια καθίσταται απλώς αδύνατη.Τα ανοιχτά μοντέλα μπορούν να έχουν πιο ξεκάθαρο περιβαλλοντικό αποτύπωμα. Το ζήτημα αυτό δεν έχει αναδειχθεί όσο θα έπρεπε. Υποσυνείδητα ταυτίζουμε ένα ερώτημα στο ChatGPT με το άνοιγμα μιας καρτέλας στον browser μας, η πραγματικότητα όμως είναι διαφορετική. Η υπολογιστική ισχύς που απαιτείται για ένα απλό ερώτημα δεν είναι καθόλου αμελητέα, άρα και το περιβαλλοντικό του αποτύπωμα επίσης. Σταδιακά θα αναπτυχθούν μεθοδολογίες οι οποίες θα ποσοτικοποιούν αυτό το αποτύπωμα για τα ανοιχτά μοντέλα. Στην περίπτωση των κλειστών όμως, αυτό θα είναι αδύνατο.Θα κλείσουμε τέλος με ένα ζήτημα που δε συζητείται ακόμα στην κοινή γνώμη. Η επόμενη κούρσα θα αφορά τα λεγόμενα, συνθετικά δεδομένα. Όταν εξαντληθούν τα διαθέσιμα δεδομένα για να εκπαιδεύσουν μοντέλα ΤΝ, θα χρειαστούν νέα. Σε αυτή την περίπτωση, τα μεγάλα γλωσσικά μοντέλα που – ω ναι, σωστά το κατάλαβες αγαπητέ αναγνώστη – θα χρησιμοποιούνται για να δημιουργήσουν νέα δεδομένα για να εκπαιδευτούν νέα μοντέλα. Θα μιλάμε ουσιαστικά για μια νέα μηχανή παραγωγής πλούτου. Σε αυτό το σενάριο, ας φανταστούμε πώς θα ήταν σήμερα ο κόσμος μας αν οι πετρελαιοπαραγωγές χώρες, είχαν τη δυνατότητα όχι μόνο να αντλούν και να πουλούν πετρέλαιο, αλλά και να το παράγουν κιόλας.

flo.jpg

* Ο Φλόρεντς Τσελάι είναι μηχανικός δεδομένων.

https://www.naftemporiki.gr/techscience/1541741/i-techniti-noimosyni-chreiazetai-anoichta-montela/

 

 

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Η τεχνητή νοημοσύνη της Google ανακαλύπτει εκατοντάδες χιλιάδες νέα υλικά.

Αλγόριθμος μηχανικής μάθησης του εργαστηρίου DeepMind επιταχύνει θεαματικά το έργο των χημικών.

41586_2023_6734_fig2_html.webp?w=1024

Έπειτα από δεκαετίες θεωρητικών μελετών και πειραματισμών στο εργαστήριο, οι χημικοί γνώριζαν μέχρι σήμερα λιγότερες από 50.000 ανόργανες ενώσεις.Μέχρι που μια τεχνητή νοημοσύνη της DeepMind, εταιρείας τεχνητής νοημοσύνης που ανήκει σήμερα στην Google, ανακάλυψε σε χρόνο-ρεκόρ ακόμα 2,2 εκατομμύρια ανόργανες ενώσεις.Το θεαματικό επίτευγμα, το οποίο παρουσιάζεται στο περιοδικό Nature, υπόσχεται μα φέρει επανάσταση στην επιστήμη υλικών, είτε πρόκειται για μπαταρίες, ημιαγωγούς, φωτοβολταϊκά πάνελ ή άλλες τεχνολογίες του αύριο.Η ανακάλυψη και σύνθεση νέων υλικών είναι συνήθως μια χρονοβόρα και δαπανηρή διαδικασία -για παράδειγμα, χρειάστηκαν περίπου δύο δεκαετίες έρευνας μέχρι να φτάσουν στην αγορά οι πρώτες μπαταρίες ιόντων λιθίου, οι οποίες άνοιξαν το δρόμο για την επανάσταση της κινητής τηλεφωνίας και της ηλεκτροκίνησης.«Ελπίζουμε ότι μεγάλες βελτιώσεις στον πειραματισμό, την αυτόνομη σύνθεση και τα μοντέλα μηχανικής μάθησης θα συντομεύσουν αυτό το χρονοδιάγραμμα των 10-20 ετών σε κάτι πιο διαχειρίσιμο» δήλωσε στο Reuters ο Έκιν Ντόγκους Κιούμπουκ της DeepMind, επικεφαλής της μελέτης.Η επιστήμη υλικών γίνεται έτσι ένα ακόμα ερευνητικό πεδίο στο οποίο διαπρέπει η DeepMind. Η εταιρεία είχε προηγουμένως παρουσιάσει τον αλγόριθμο AlphaFold, ο οποίος έλυσε έναν μεγάλο γρίφο της βιολογίας χάρη στην ικανότητά του να προβλέπει τη δομή πρωτεϊνών, και πιο πρόσφατα το GraphCast, ένα μοντέλο καιρικών προβλέψεων που τρέχει σε laptop και ανταγωνίζεται συμβατικά μοντέλα που απαιτούν υπερυπολογιστές.

Δομή και σταθερότητα

To νέο μοντέλο που προβλέπει νέα υλικά, με την ονομασία GNoME, αρχικά εκπαιδεύτηκε με δεδομένα του Materials Project, μια βάση δεδομένων του Πανεπιστημίου του Μπέρκλεϊ στην οποία έχουν καταχωρηθεί δεδομένα για τις 20.000 ανόργανες ενώσεις που έχουν παραχθεί στο εργαστήριο και τις ακόμα 28.000 ενώσεις για τις οποίες υπάρχουν θεωρητικές προβλέψεις. Τα δεδομένα περιγράφουν μεταξύ άλλων την κρυσταλλική δομή κάθε υλικού και τη σταθερότητά του.

newscenter_featured_materials_850x540-px Η εικόνα δείχνει τις δομές 12 ενώσεων από τη βάση δεδομένων Materials Project

Έπειτα από μερικούς γύρους εκπαίδευσης με παραδείγματα, το GNoME προέβλεψε τις δομές ακόμα 2,2 εκατομμυρίων κρυσταλλικών ενώσεων. Ο αλγόριθμος υπολόγισε επίσης τη σταθερότητα 380.000 από τις ενώσεις αυτές, οι οποίες προστέθηκαν στη βάση του Materials Project.Μερικές δεκάδες από τα νέα υλικά που προέβλεψε ο αλγόριθμος ήδη παρήχθησαν στο εργαστήριο χάρη σε μια διαφορετική τεχνητή νοημοσύνη, η οποία αναπτύχθηκε στο Πανεπιστήμιο του Μπέρκλεϊ για την αυτοματοποίηση της μελέτης νέων υλικών.Το σύστημα A-Lab, στο οποίο ένα σύστημα ΑΙ καθοδηγεί ρομπότ που πειραματίζονται στον πάγκο, παρήγαγε με επιτυχία 41 νέα υλικά από τα 58 που δοκίμασε, αναφέρουν οι ερευνητές σε ξεχωριστή δημοσίευση στο Nature.To ρομποτικό εργαστήριο παρήγαγε κατά μέσο όρο δύο νέα υλικά την ημέρα, μια διαδικασία που κανονικά απαιτεί εβδομάδες ή μήνες, επισημαίνει ανακοίνωση του πανεπιστημίου.Τα οφέλη της τεχνολογίας της DeepMind αναμένεται τώρα να διαχυθούν σε όλη την ερευνητική κοινότητα, καθώς η εταιρεία δεσμεύτηκε να διαθέσει το GNoME ως ανοιχτό κώδικα και να δημοσιεύσει τα δεδομένα για όλα τα νέα υλικά που ανακαλύπτονται.

 https://www.in.gr/2023/11/30/in-science/episthmes/texniti-noimosyni-tis-google-anakalypse-ekatontades-xiliades-nea-ylika/

 

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Δημοπρατείται ο υπερυπολογιστής «Δαίδαλος» – «Αποκαλυπτήρια» του «ψηφιακού βοηθού»

gen-z-e1701621462670-696x333.jpg

Ένα από τα πέντε μεγαλύτερα μηχανήματα στην Ευρώπη ο ελληνικός υπερυπολογιστής - Θα τοποθετηθεί στο τεχνολογικό πάρκο του Λαυρίου.Η πρώτη προσπάθεια του ελληνικού Δημοσίου να μπει στην τεχνητή νοημοσύνη, ο «ψηφιακός βοηθός» του gov.gr θα κάνει την προσεχή εβδομάδα τα αποκαλυπτήριά του στο κοινό, ενώ στα μέσα του τρέχοντος μήνα θα δημοπρατηθεί ο υπερυπολογιστής «Δαίδαλος», συνολικού προϋπολογισμού 50 εκατ. ευρώ.Τα παραπάνω γνωστοποίησε από τη Θεσσαλονίκη ο υπουργός Ψηφιακής Διακυβέρνησης Δημήτρης Παπαστεργίου, μιλώντας στο 11ο διεθνές συνέδριο με τίτλο «Νέοι Ορίζοντες στην Τεχνητή Νοημοσύνη», που διοργάνωσε η Πολιτιστική Εταιρεία Επιχειρηματιών Βορείου Ελλάδος, σε συνεργασία με το Δίκτυο Ναυαρίνο και το Ίδρυμα Konrad Adenauer.Σύμφωνα με τον κ. Παπαστεργίου, ο «ψηφιακός βοηθός» θα παρουσιαστεί την Τετάρτη στον πρόεδρο της κυβέρνησης και την επόμενη μέρα στους δημοσιογράφους.Όπως εξήγησε, το νέο ψηφιακό εργαλείο για τη δημόσια διοίκηση με χρήση τεχνητής νοημοσύνης, θα δίνει συνδυαστικές απαντήσεις σε απλά μέχρι πιο σύνθετα ερωτήματα, ενώ η λειτουργία του θα βοηθήσει τη ζωή των πολιτών. Περιγράφοντας τη βασική ιδέα του «ψηφιακού βοηθού», ο κ. Παπαστεργίου ανέφερε ότι «προσπαθούμε να δούμε πώς μπορούμε να βοηθήσουμε έναν πολίτη που ψάχνει κάτι στη δημόσια διοίκηση ή στο gov.gr, και είτε δεν μπορεί να το βρει εύκολα είτε δεν μπορεί να το εκφράσει».Ανέφερε ως χαρακτηριστικό παράδειγμα την περίπτωση πολίτη τρίτης χώρας που βρίσκεται υπό διεθνή προστασία και ζητεί να μάθει εάν δικαιούται βεβαίωση παραμονής.Από ελληνικά πανεπιστήμια, κορυφαίοι της Τεχνητής νοημοσύνης.

Από ελληνικά πανεπιστήμια, κορυφαίοι της Τεχνητής νοημοσύνης.

Μιλώντας για την τεχνητή νοημοσύνη στη χώρα μας, ο κ. Παπαστεργίου τόνισε ότι «εκτός από ανθρώπους θέλει και υποδομές». «Τα νέα είναι καλά» όσον αφορά στις υποδομές, υπογράμμισε ο ίδιος, κάνοντας αναφορά στον ελληνικό υπερυπολογιστή «Δαίδαλος»- «ένα από τα πέντε μεγαλύτερα μηχανήματα στην Ευρώπη», όπως είπε, που θα τοποθετηθεί στο τεχνολογικό πάρκο του Λαυρίου (συνολικού προϋπολογισμού 35 εκατ. ευρώ και επιπλέον 15 εκατ. ευρώ για τις λοιπές μηχανολογικές υποδομές).«Εκτός από το έργο αυτό πρέπει μέσω του Ταμείου Ανάκαμψης σε συνεργασία και με την Ευρωπαϊκή Τράπεζα Επενδύσεων όχι απλά να καταναλώνουμε αλλά και να παράγουμε ώστε να μπορούμε να δώσουμε τα “όπλα” στην ακαδημαϊκή και ερευνητική κοινότητα να “τρέξει” διάφορες δοκιμές και “πρότζεκτ” για να συνεχίσουμε να είμαστε στην αιχμή της τεχνολογίας», τόνισε ο κ. Παπαστεργίου. Επικαλούμενος τα στοιχεία διεθνούς μελέτης, ανέφερε ότι το 11% των κορυφαίων προγραμματιστών τεχνητής νοημοσύνης έχει αποφοιτήσει από ελληνικά πανεπιστήμια.

«Χρειαζόμαστε διπλάσια και τριπλάσια ταχύτητα»

Στο ίδιο πάνελ που μίλησε ο υπουργός Ψηφιακής Διακυβέρνησης, με τίτλο «Τεχνητή Νοημοσύνη και Εθνική Στρατηγική», και συντόνισε ο υπουργός Μετανάστευσης και Ασύλου Δημήτρης Καιρίδης, συμμετείχε και η πρώην υπουργός και Ευρωπαία επίτροπος Άννα Διαμαντοπούλου. Η ίδια εξέφρασε την άποψη ότι η Ελλάδα παρά τα άλματα που έκανε τα τελευταία χρόνια εξακολουθεί να βρίσκεται, στην ευρωπαϊκή σύγκριση, στις τελευταίες θέσεις όσον αφορά τον ψηφιακό μετασχηματισμό στη δημόσια διοίκηση. «Ενώ κάναμε βήματα, έκαναν και οι άλλοι. Γι’ αυτό χρειαζόμαστε διπλάσια και τριπλάσια ταχύτητα» επισήμανε.Αναφερόμενη στην τεχνητή νοημοσύνη, η κ. Διαμαντοπούλου σημείωσε ότι φέρνει μεγάλες αλλαγές σε όλες τις επιστήμες. Έσπευσε όμως να εκφράσει την ανησυχία της για τη χρήση της, όπως για παράδειγμα στις περιπτώσεις δικαστικών αποφάσεων. «Το ζητούμενο είναι ποιοι βρίσκονται πίσω από τις αποφάσεις που παίρνει ο αλγόριθμος» ανέφερε χαρακτηριστικά.Θέτοντας το στοίχημα για τις νέες γενιές στη χρήση των νέων εργαλείων της τεχνολογίας, η πρώην υπουργός ιεράρχησε ως άμεση εθνική προτεραιότητα την «οριζόντια και κάθετη» εκπαίδευση των δασκάλων και καθηγητών, ενώ επισήμανε την ανάγκη αλλαγής, εκ θεμελίων, των προγραμμάτων σπουδών προς μία κατεύθυνση συνδυασμού των ψηφιακών δεξιοτήτων με τις ανθρωπιστικές σπουδές.«Οι εκπαιδευτικοί είναι αυτοί που θα βοηθήσουν τα παιδιά να χρησιμοποιήσουν τα νέα εργαλεία» είπε, υπογραμμίζοντας ότι εάν δεν επιτευχθεί αυτή η σύνδεση ψηφιακών δεξιοτήτων με τις ανθρωπιστικές σπουδές «η γενιά αυτή θα έχει μειωμένη ικανότητα να ανιχνεύσει» τους κινδύνους της τεχνητής νοημοσύνης.

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

OpenAI: O Σαμ Άλτμαν ομολόγησε την ύπαρξη του απόρρητου σούπερ προγράμματος τεχνητής νοημοσύνης.

qstar-696x392.jpg

Η ανάπτυξη του θεωρείται η αιτία της κρίσης που ξέσπασε στην εταιρεία.Για περίπου μια εβδομάδα η βιομηχανία της τεχνολογίας βίωσε αρχικά ένα σοκ και στη συνέχεια ένα θρίλερ με πολύπλευρες συνέπειες όταν το ΔΣ της OpenAI, της εταιρείας που έφερε στη ζωή μας τη τεχνολογία γενετικής νοημοσύνης και το ChatGPT, εντελώς ξαφνικά και απρόσμενα απέλυσε τον συνιδρυτή και επικεφαλής της εταιρείας Σαμ Άλτμαν οδηγώντας ταυτόχρονα σε παραίτηση τον πρόεδρο και στενό συνεργάτη του Άλτμαν, Γκρεγκ Μπρόκμαν.
Το ΔΣ ανέφερε ότι υπήρχε έλλειψη εμπιστοσύνης στον Άλτμαν ο οποίος είτε έλεγε ψέματα στα μέλη του ΔΣ είτε απέκρυπτε κρίσιμες πληροφορίες για τη λειτουργία της εταιρείας.Το γεγονός ότι καμιά από τις δύο πλευρές δεν άνοιξε τα χαρτιά της αναφέροντας την αιτία για όσα συνέβησαν οδήγησε όπως ήταν επόμενο σε μια έντονη φημολογία και παραφιλολογία. Ανάμεσα στα ρεπορτάζ που δημοσιεύτηκαν για το τι μπορεί να οδήγησε το ΔΣ στην απόφαση για άμεση απομάκρυνση του Αλτμαν από την εταιρεία ήταν πώς είχε δώσει εντολή στους τεχνικούς της OpenAI να αναπτυχθεί μυστικά ένα πρόγραμμα τεχνητής νοημοσύνης το οποίο έδειχνε καθώς αναπτυσσόταν ότι εξελισσόταν σε ένα υπερευφυές πρόγραμμα.Το πρόγραμμα που είχε λάβει την ονομασία Q* (Q-Star) εξελισσόταν ταχύτατα και σύμφωνα με ρεπορτάζ του Reuters είχε αρχίσει να δείχνει εκπληκτικές ικανότητες κυρίως στον μαθηματικό τομέα και έδειχνε ότι θα μπορούσε σύντομα να γίνει το πιο προηγμένο πρόγραμμα γενετικής νοημοσύνης με δυνατότητες απρόβλεπτες. Κάποιοι από τους ερευνητές της εταιρείας που δεν έγινε γνωστό αν εμπλέκονταν στο πρότζεκτ ή απλά ενημερώθηκαν για αυτό έστειλαν ενημερωτικό σημείωμα στα ανώτερα στελέχη της OpenAI και πιθανώς και σε μέλη του ΔΣ που πιθανώς γνώριζαν ότι δεν είχαν πολύ στενή σχέση με τον Άλτμαν. Το σημείωμα αυτό υποδείκνυε σοβαρούς κινδύνους ασφαλείας και κυρίως κινδύνους για την ανθρωπότητα από αυτό το σούπερ νέο πρόγραμμα ΑΙ.Σύμφωνα με αυτή την εκδοχή τα μέλη του ΔΣ δεν γνώριζαν ούτε την ύπαρξη του προγράμματος ούτε την επικινδυνότητα του για αυτό και αποφάσισαν να εκδιώξουν άμεσα τον Άλτμαν κατηγορώντας τον στην ουσία για απόκρυψη σημαντικών πληροφοριών για την εταιρεία και διαρρέοντας ότι προχωρούσε σε ανάπτυξη τεχνολογιών που δεν ήταν σύμφωνες με το καταστατικό αλλά και την φιλοσοφία της εταιρείας.Τελικά μετά από την μαζική αντίδραση των εργαζομένων της OpenAI που απείλησαν με ομαδική παραίτηση και τις παρασκηνιακές κινήσεις κυρίως της Microsoft, που έχει επενδύσει 13 δισ. δολάρια στην εταιρεία και κατέχει το 49%, τα μέλη του ΔΣ που είχαν απολύσει τον Άλτμαν υποχρεώθηκαν σε αποχώρηση και επέστρεψε ο Άλτμαν ως επικεφαλής στην εταιρεία με το κλίμα που έχει διαμορφωθεί να δείχνει ότι στην ουσία η εταιρεία πέρασε στον έλεγχο της Microsoft η οποία είχε φροντίσει να προσλάβει αμέσως τον Άλτμαν, τον Μπρόκμαν και εργαζομένους της OpenAI που παραιτήθηκαν όταν απολύθηκε ο Άλτμαν σχεδιάζοντας τη δημιουργία ενός νέου τμήματος ανάπτυξης ΑΙ.

Ναι μεν αλλά…

Όμως ο Άλτμαν σε συνέντευξη που παραχώρησε στην δημοφιλή ιστοσελίδα τεχνολογικών ειδήσεων The Verge όταν ρωτήθηκε για το Q* είχε την ευκαιρία να αρνηθεί την ύπαρξη του αλλά εκείνος περιορίστηκε να πει ότι «αυτή η πληροφορία ήταν μια ατυχής διαρροή από την εταιρεία» επιβεβαιώνοντας ουσιαστικά την ύπαρξη του προγράμματος.«Δεν έχω να κάνω κανένα σχόλιο για αυτήν την ατυχή διαρροή. Αλλά αυτό που λέγαμε  πριν από δύο εβδομάδες, αυτό που λέμε σήμερα, αυτό που λέγαμε πριν από ένα χρόνο, αυτό που λέγαμε νωρίτερα  είναι ότι αναμένουμε ότι η πρόοδος σε αυτήν την τεχνολογία θα συνεχίσει να είναι ταχεία και επίσης ότι να περιμένετε ότι θα συνεχίσουμε να εργαζόμαστε πολύ σκληρά για να καταλάβουμε πώς να κάνουμε αυτή την τεχνολογία ασφαλή και ωφέλιμη» είπε ο Άλτμαν τροφοδοτώντας όπως είναι ευνόητο ένα νέο κύκλο συζητήσεων τόσο για όσα συνέβησαν στην OpenAI αλλά και για το κρίσιμο ζήτημα της τρομερά γρήγορης εξέλιξης της τεχνολογίας τεχνητής νοημοσύνης τον τελευταίο ένα χρόνο και των φόβων που υπάρχει για τον έλεγχο και τι επίπεδο ασφάλεια της.

Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο.

Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.

Σύνδεσμος για σχόλιο
Κοινή χρήση σε άλλους ιστότοπους

Δημιουργήστε έναν λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είσαι μέλος για να αφήσεις ένα σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε για έναν νέο λογαριασμό στην κοινότητά μας. Είναι εύκολο!.

Εγγραφή νέου λογαριασμού

Συνδεθείτε

Έχετε ήδη λογαριασμό? Συνδεθείτε εδώ.

Συνδεθείτε τώρα
×
×
  • Δημιουργία νέου...

Σημαντικές πληροφορίες

Όροι χρήσης