Δροσος Γεωργιος Δημοσιεύτηκε Ιανουάριος 17 Συγγραφέας Δημοσιεύτηκε Ιανουάριος 17 (επεξεργάστηκε) Το πολυδιάστατο κόστος χρήσης της τεχνητής νοημοσύνης. Οι παράπλευρες οικονομικές, περιβαλλοντικές, πολιτικές και κοινωνικές απώλειες της άνθησης των τεχνολογιών ΑΙ. Η εξάπλωση των μεγάλων γλωσσικών μοντέλων (LLMs) όπως είναι το ChatGPT, το Google Gemini, ή το Claude έχει κάνει την αλληλεπίδραση με την τεχνητή νοημοσύνη καθημερινή υπόθεση. Όμως αυτή η ευκολία κρύβει ένα βασικό γεγονός: κάθε ερώτημα δεν είναι «δωρεάν». Και δεν μιλάμε μόνο για το προφανές οικονομικό κόστος σε υπολογιστική ισχύ. Το πραγματικό κόστος είναι πολυδιάστατο: ενέργεια που καταναλώνεται σε data centers, νερό που απαιτείται για ψύξη, υλικό που φθείρεται και πρέπει να αντικατασταθεί, αλλά και κοινωνικές συνέπειες που δεν αποτυπώνονται σε έναν απλό λογαριασμό.Με άλλα λόγια, κάθε prompt, κάθε query, κάθε ερώτημα σε ένα γλωσσικό μοντέλο λειτουργεί σαν μια μικρή «συναλλαγή» με ένα τεράστιο οικοσύστημα υποδομών και ανθρώπινης εργασίας. Πληρώνουμε σε χρήμα, αλλά και σε φυσικούς πόρους, περιβαλλοντικό αποτύπωμα, χρόνο, προσοχή και σε ορισμένες περιπτώσεις, ακόμα και με κοινωνική εμπιστοσύνη και θεσμική σταθερότητα. Γι’ αυτό και όταν προσπαθούμε να απαντήσουμε στο φαινομενικά απλό ερώτημα “πόσο κοστίζει ένα query;”, καταλήγουμε αναγκαστικά σε μια ευρύτερη συζήτηση: τι ακριβώς μετράμε ως κόστος και ποιος τελικά το επωμίζεται. Στόχος της παρακάτω ανάλυσης είναι να χαρτογραφήσει όλες τις παραμέτρους που συνθέτουν το κόστος ανά ερώτημα, ώστε ο όρος «κόστος χρήσης AI» να αποκτήσει ουσιαστικό περιεχόμενο. Δηλαδή όχι μόνο λογιστικό, αλλά και τεχνικό, περιβαλλοντικό και κοινωνικό. Στις επόμενες ενότητες εξετάζεται διαδοχικά: * Το οικονομικό κόστος (υπολογιστική ισχύς, GPUs, cloud, ανθρώπινο δυναμικό, κόστος ανά token/ερώτημα), * Το περιβαλλοντικό κόστος (εκπομπές CO₂, κατανάλωση ενέργειας και νερού, ψύξη data centers), * Το κόστος υποδομής/υλικού (απόσβεση, συντήρηση, κύκλος ζωής και αναβάθμιση εξοπλισμού), * Το κοινωνικό και ηθικό κόστος (ανισότητες πρόσβασης, παραπληροφόρηση, ψυχολογικός/πολιτικός αντίκτυπος, μετασχηματισμός εργασίας και ανάγκη επανεκπαίδευσης), * Το ευκαιριακό κόστος (τι χάνεται όταν πόροι και προσοχή κατευθύνονται στα LLMs αντί σε εναλλακτικές λύσεις), * Το μακροπρόθεσμο κόστος (εξάρτηση, ανάγκη συνεχούς κλιμάκωσης, γεωπολιτικές επιπτώσεις και συγκέντρωση ισχύος). Οικονομικό κόστος Η απάντηση ενός μεγάλου γλωσσικού μοντέλου σε ένα ερώτημα έχει άμεσο οικονομικό κόστος σε επίπεδο υπολογιστικής κατανάλωσης. Τα μοντέλα αυτά απαιτούν χιλιάδες υπολογιστικές μονάδες (GPUs/TPUs) που λειτουργούν σε data centers υψηλής απόδοσης. Υπάρχουν διάφορες αναλύσεις όπου υποστηρίζουν ότι το κόστος ενός ερωτήματος στο ChatGPT θα μπορούσε να κυμανθεί από 0.36$ ανά ερώτημα, μέχρι 0.01$ με βάση ότι κάθε απάντηση έχει ~30 λέξεις. Ο CEO του OpenAI, Sam Altman, έχει δηλώσει χαρακτηριστικά πως «κάθε prompt πιθανώς κοστίζει μερικά σεντ», προσδιορίζοντας ως ανώτατο σενάριο περίπου 0,09$ ανά ερώτημα για τα πιο προηγμένα μοντέλα.Οι αποκλίσεις αυτές οφείλονται στο ότι το κόστος ανά ερώτημα εξαρτάται από πολλούς παράγοντες: το μέγεθος του μοντέλου, τον αριθμό των token που επεξεργάζεται/παράγει, την αποδοτικότητα του hardware, και το κατά πόσον αξιοποιείται πλήρως η χωρητικότητα του συστήματος. Η OpenAI αναφέρει ότι 1 token αντιστοιχεί περίπου σε 0,75 λέξεις. Κάθε token που παράγεται απαιτεί τεράστιο αριθμό υπολογιστικών πράξεων. Το κόστος αυτού του υπολογισμού μεταφράζεται σε χρήμα ανάλογα με το ρυθμό κατανάλωσης μιας GPU και το κόστος λειτουργίας της. Υποδομή cloud και κόστος GPU Οι πάροχοι cloud (όπως η Azure της Microsoft που φιλοξενεί το OpenAI) χρεώνουν την ωριαία χρήση αυτών των ισχυρών servers. Αν ένας τέτοιος server παράγει λόγου χάρη ~10 απαντήσεις το δευτερόλεπτο, τότε μόνο ο υπολογιστικός χρόνος για μία απάντηση κοστίζει ~$0,000083. Βέβαια, τα LLMs τυπικά τρέχουν παράλληλα σε πολλαπλές GPUs για να επιταχύνουν την απόκριση ή να υποστηρίξουν μεγαλύτερα μοντέλα. Η εκτίμηση των $0,36/query από το SemiAnalysis υποθέτει ότι χρησιμοποιεί αθροιστικά όλη την υποδομή (δεκάδες χιλιάδες GPUs) σε συνεχή λειτουργία για να εξυπηρετήσει εκατομμύρια ερωτήματα ημερησίως. Αν η ζήτηση είναι μικρότερη, κάποιες μονάδες μένουν αδρανείς σε ώρες χαμηλού φορτίου (οπότε το πραγματικό κόστος ανά ερώτημα μπορεί να αυξάνεται επειδή το hardware δεν αξιοποιείται 100%). Αντίθετα, σε ώρες αιχμής γίνεται batching αιτημάτων που βελτιώνει την απόδοση ανά GPU.Συνοπτικά, το άμεσο μεταβλητό κόστος ανά ερώτημα για μεγάλα LLMs σήμερα κυμαίνεται στην τάξη 0,01$ – 0,1$, ανάλογα με το μοντέλο και το μέγεθος της απάντησης. Ωστόσο, αυτό είναι μόνο μία όψη του οικονομικού κόστους. Υπάρχει και το σταθερό/επενδυτικό κόστος: η εκπαίδευση των μοντέλων και η ανάπτυξη της απαιτούμενης υποδομής. Η εκπαίδευση του GPT-3 (175 δισ. παράμετροι) εκτιμήθηκε ότι κόστισε περίπου $12 εκατομμύρια μόνο σε υπολογιστικούς πόρους, ενώ για το GPT-4 το κόστος ανέβηκε στα $100 εκατομμύρια. Αυτές οι δαπάνες έρχονται να προστεθούν στο “κόστος ανά query” αν τις αναλογιστούμε αποσβεσμένες σε όλη τη διάρκεια ζωής του μοντέλου. Για παράδειγμα, αν ένα μοντέλο κόστισε $100M να εκπαιδευτεί και εξυπηρετήσει 1 δισεκατομμύριο ερωτήματα στη ζωή του, μόνο το εκπαιδευτικό κόστος συνεισφέρει $0,10 ανά ερώτημα.Πέρα από το hardware, οικονομικό κόστος είναι και το ανθρώπινο δυναμικό: Οι ομάδες μηχανικών AI, επιστημόνων δεδομένων και τεχνικών υποστήριξης πληρώνονται για την ανάπτυξη, συντήρηση και βελτίωση αυτών των μοντέλων. Επίσης, η βελτίωση ενός LLM απαιτεί συχνά ανθρώπινη εποπτεία και επιμέλεια (π.χ. διαδικασίες όπως human reinforcement learning από ανθρώπινη ανάδραση). Αυτές οι εργατοώρες (συχνά αόρατες) έχουν κόστος. Για παράδειγμα, πολλές τέτοιου είδους εταιρείες έχουν αναθέσει σε ανθρώπους – αξιολογητές το φιλτράρισμα και τη βαθμολόγηση απαντήσεων του μοντέλου για βελτίωση, κάτι που είναι μέρος του λειτουργικού κόστους.Τέλος, πρέπει να σημειωθεί ότι το μεγαλύτερο μέρος του λειτουργικού κόστους ενός LLM σε βάθος χρόνου μπορεί να μην είναι η αρχική εκπαίδευση, αλλά η συνεχής χρήση (inference). Με άλλα λόγια, η ενεργή χρήση των μοντέλων (απαντώντας στα αδιάκοπα queries των χρηστών) συσσωρεύει συνολικό κόστος που μπορεί να υπερβαίνει κατά πολύ το εφάπαξ κόστος εκπαίδευσης, ειδικά καθώς η υιοθέτηση μεγαλώνει και τα queries αριθμούνται σε δισεκατομμύρια. Περιβαλλοντικό κόστος Κάθε ερώτημα προς ένα AI μοντέλο έχει ένα αποτύπωμα ενέργειας και συνεπώς περιβαλλοντικό αντίκτυπο. Οι υπολογισμοί που εκτελούν οι GPU καταναλώνουν ηλεκτρική ενέργεια και παράγουν θερμότητα, που πρέπει να αποβληθεί μέσω ψύξης (συχνά με χρήση νερού). Επίσης, η παραγωγή της ηλεκτρικής ενέργειας συνεπάγεται εκπομπές διοξειδίου του άνθρακα (CO₂).Πρόσφατες ανεξάρτητες μετρήσεις και στοιχεία από εταιρείες υποδεικνύουν πως το τυπικό αίτημα σε ένα σύγχρονο LLM καταναλώνει ηλεκτρική ενέργεια περίπου 0,2–0,5 Wh. Για να έχουμε ένα σημείο αναφοράς: μια σύγχρονη αναζήτηση στη Google εκτιμάται πως καταναλώνει μόλις 0,04 Wh κατά μέσο όρο. Αυτό σημαίνει ότι ένα ερώτημα σε ένα LLM είναι πιθανώς 5–10 φορές πιο ενεργοβόρο από μια παραδοσιακή αναζήτηση. Η διαφορά αυτή γίνεται αντιληπτή αν σκεφτούμε ότι η αναζήτηση απλώς αντλεί αποθηκευμένες πληροφορίες, ενώ το LLM γεννά λέξη προς λέξη μια πρωτογενή απάντηση μέσω εντατικών μαθηματικών υπολογισμών σε δισεκατομμύρια παραμέτρους.Οι εκπομπές CO₂ ανά query εξαρτώνται από την πηγή της ηλεκτρικής ενέργειας. Παρόλο που μιλάμε για εκπομπές λίγων γραμμαρίων CO₂ ανά ερώτημα, μικρότερες από τις εκπομπές που θα προκαλούσε η οδήγηση ενός αυτοκινήτου για μερικά μέτρα, το κρίσιμο ζήτημα δεν είναι η εκπομπή ενός μεμονωμένου query, αλλά ο συνολικός όγκος τους. Αν δισεκατομμύρια queries εκτελούνται καθημερινά, το ενεργειακό και ανθρακικό αποτύπωμα πολλαπλασιάζεται. Σήμερα που η απόδοση έχει βελτιωθεί, ακόμη και αν τα αιτήματα έχουν αυξηθεί, η κατανάλωση είναι μεγάλη και συγκρίσιμη με την ημερήσια κατανάλωση ρεύματος μιας μικρής πόλης. Ψύξη, νερό και κλιματική επιβάρυνση Η κατανάλωση ενέργειας συνοδεύεται από θερμότητα που πρέπει να διαχυθεί. Τα data centers αξιοποιούν συστήματα ψύξης, συχνά υδρόψυκτα. Αυτό εγείρει το θέμα της κατανάλωσης νερού από την AI. Ένα αποκαλυπτικό στατιστικό από το University of California που υπολόγισε ότι το ChatGPT καταναλώνει περίπου 500 ml νερού ανά 5 έως 50 ερωτήματα που απαντά. Το εύρος είναι μεγάλο (10 ml έως 100 ml ανά query, αναλόγως των συνθηκών), αλλά ακόμη και μια μέση τιμή ~50 ml ανά ερώτηση σημαίνει ότι κάθε 20 queries καταναλώνουν περίπου ένα λίτρο γλυκού νερού για τις ανάγκες ψύξης. Η Microsoft ανέφερε ότι η συνολική χρήση νερού της αυξήθηκε κατά 34% σε ένα έτος φτάνοντας τα ~1,7 δισεκατομμύρια γαλόνια νερού, σε μεγάλο βαθμό λόγω των επενδύσεων σε AI και των αντίστοιχων κέντρων δεδομένων. Μέρος αυτού του νερού χρησιμοποιείται κατά την εκπαίδευση μεγάλων μοντέλων, αντλώντας μεγάλες ποσότητες νερού από τον τοπικό υδροφόρο ορίζοντα για ψύξη.Το περιβαλλοντικό κόστος περιλαμβάνει και την έμμεση επίδραση στο κλίμα. Αν η ζήτηση για AI εκτινάσσει τις ενεργειακές ανάγκες, μπορεί να απαιτηθεί ενίσχυση της παραγωγής ρεύματος. Ήδη εκφράζονται ανησυχίες ότι τα data centers ενδέχεται να απορροφήσουν πολύ μεγάλο μερίδιο του ηλεκτρικού δυναμικού, δυσχεραίνοντας την προσπάθεια μετάβασης σε πιο πράσινες μορφές ενέργειας. Σε τοπικό επίπεδο, η συγκέντρωση ενεργοβόρων εγκαταστάσεων εγείρει ζητήματα ηλεκτρικού φορτίου και επάρκειας υποδομών. Παραγωγή hardware και ηλεκτρονικά απόβλητα Σημαντικό αλλά συχνά παραβλεπόμενο μέρος του περιβαλλοντικού κόστους είναι το αποτύπωμα κατασκευής του ίδιου του εξοπλισμού AI. Η παραγωγή προηγμένων ημιαγωγών είναι εξαιρετικά ενεργοβόρα και υλικοβόρα διαδικασία. Απαιτεί πολύ υψηλής καθαρότητας υλικά, χημικές ουσίες, καθώς και τεράστιες ποσότητες ενέργειας και νερού στα εργοστάσια. Σύμφωνα με πρόσφατες αξιολογήσεις κύκλου ζωής, το «ενσωματωμένο» ανθρακικό αποτύπωμα μιας μόνο τέτοιας GPU είναι της τάξης των 150–200 κιλών CO₂e (κιλά ισοδύναμου CO₂). Αυτό σημαίνει ότι πριν καν ενεργοποιηθεί μια GPU AI έχει «χρεωθεί» εκατοντάδες κιλά εκπομπών μέσω της κατασκευής της, χωρίς να υπολογίσουμε τη μεταφορά/διανομή της διεθνώς. Συνεπώς, η συνεχής ανάγκη για νέους επεξεργαστές (καθώς τα μοντέλα κλιμακώνονται και απαιτούν νεότερο hardware) έχει περιβαλλοντική επίπτωση. Επιπλέον, ο κύκλος ζωής του hardware δημιουργεί ηλεκτρονικά απόβλητα (e-waste): οι GPU και οι server αποσύρονται ύστερα από μερικά χρόνια, συμβάλλοντας στην ήδη δύσκολη διαχείριση e-waste παγκοσμίως, με επικίνδυνα υλικά και σπάνιες γαίες που καταλήγουν συχνά σε χώρους υγειονομικής ταφής ή σε ανακύκλωση χαμηλής απόδοσης.Το κάθε ερώτημα σε ένα LLM έχει μεν μικρό αποτύπωμα (λίγες δεκάδες Wh και λίγα γραμμάρια CO₂), αλλά σε μεγάλη κλίμακα η χρήση AI προσθέτει σημαντικό φορτίο σε ενεργειακά δίκτυα, καταναλώνει πολύτιμους φυσικούς πόρους και συμβάλλει έμμεσα στις κλιματικές εκπομπές. Η παραγωγή και απόρριψη της υποδομής αυτής διευρύνει περαιτέρω το περιβαλλοντικό αποτύπωμα. Το ζήτημα αυτό έχει αρχίσει να αναγνωρίζεται ως σοβαρό: η παγκόσμια χρήση ενέργειας των data centers AI εκτιμάται ότι θα αυξηθεί ραγδαία. Στις ΗΠΑ προβλέπεται ότι οι AI servers μπορεί να φτάσουν να καταναλώνουν μέχρι και 70–80% της συνολικής ενέργειας των data centers ως το 2028, μια τεράστια αύξηση από το ~20% του σήμερα. Κόστος υποδομής και υλικού Η λειτουργία μεγάλων μοντέλων AI απαιτεί εκτεταμένη υπολογιστική υποδομή, όχι μόνο από πλευράς ενέργειας, αλλά και καθαυτής της όλης υλικής επένδυσης σε εξοπλισμό, εγκαταστάσεις και συντήρηση. Αυτό το κόστος μπορεί να το δούμε ως το «πάγιο κεφάλαιο» που πρέπει να δαπανηθεί, αλλά και να ανανεώνεται περιοδικά, προκειμένου να είναι δυνατή η εξυπηρέτηση των ερωτημάτων μας. Επένδυση σε data centers και εξοπλισμό Η χρονική περίοδος που ζούμε, είναι μια περίοδο έκρηξης επενδύσεων σε data centers για AI. Οι μεγαλύτερες εταιρείες τεχνολογίας δαπανούν δυσθεώρητα και υπέρογκα ποσά για να χτίσουν ή να αναβαθμίσουν εγκαταστάσεις που θα φιλοξενούν AI υπολογιστικά clusters. Συνολικά, μέχρι το 2028 υπάρχουν εκτιμήσεις ότι η παγκόσμια δαπάνη για καινούρια datacenters, τα οποία σχετίζονται άμεσα με AI θα προσεγγίσει τα $3 τρισεκατομμύρια. Αυτά τα ποσά είναι ενδεικτικά του τι σημαίνει ο όρος “υποδομή για AI”. Δηλαδή τεράστια campus με χιλιάδες rack υπολογιστών (τυποποιημένη μεταλλική κατασκευή που χρησιμοποιείται για τη συγκράτηση και οργάνωση και προστασία συσκευών πληροφορικής και δικτύωσης (όπως servers, switch, routers, patch panels) σε ένα κέντρο δεδομένων) , ειδικότερα ακόμα και σε δίκτυα υψηλής ταχύτητας, ψυκτικά συστήματα κλπ.Κάθε φυσικό κέντρο δεδομένων έχει κόστος κατασκευής (γη, κτήρια, γεννήτριες, UPS, κλιματισμός, δικτυακή σύνδεση κ.ο.κ.) και κόστος λειτουργίας (ηλεκτρικό ρεύμα, προσωπικό συντήρησης, ασφάλεια, αναλώσιμα). Επίσης, υπάρχει το κόστος συντήρησης και επισκευής του hardware. Οι GPU και οι server έχουν συγκεκριμένο κύκλο ζωής: π.χ. οι μονάδες ψύξης πρέπει να συντηρούνται, οι δίσκοι να αντικαθίστανται όταν φθείρονται, ακόμα και οι ίδιες οι GPU ενίοτε αποτυγχάνουν και θέλουν αλλαγή. Όλα αυτά συνεπάγονται κόστος ανά έτος λειτουργίας, το οποίο έμμεσα είναι κόστος ανά ερώτημα. Αν ένας server κοστίζει Χ χρήματα να αγοραστεί και διαρκεί Υ χρόνια, μπορούμε να πούμε ότι ανά ώρα χρήσης “ξοδεύει” ένα μέρος της αξίας του, άρα μπορεί να χαρακτηριστεί ως απόσβεση. Προσθέτοντας και το ρεύμα που καταναλώνει ανά ώρα, παίρνουμε το συνολικό κόστος ανά ώρα, που θα μας βοηθήσει να βρούμε το κόστος ανά query, γνωρίζοντας παράλληλα πόσα query εξυπηρετεί ο server ανά ώρα. Αυτή η λογική, μολονότι απλή, είναι ο πυρήνας κάθε κοστολόγησης inference και γι’ αυτό συχνά ακούγονται νούμερα όπως “0.36$ ανά query” που συμπεριλαμβάνουν τόσο την ενέργεια όσο και την απόσβεση κεφαλαίου. Κύκλος ζωής hardware – αναβάθμιση και απόσυρση Τα μοντέλα AI γίνονται όλο και μεγαλύτερα και πιο περίπλοκα. Αυτό σημαίνει ότι για να τα τρέχουν αποτελεσματικά, χρειάζεται ανά διαστήματα να ανανεώνεται ο εξοπλισμός με νεότερο, ισχυρότερο. Έτσι, οι εταιρείες βρίσκονται σε έναν αγώνα συνεχούς αναβάθμισης.Επειδή η τεχνολογία εξελίσσεται ραγδαία, ο ρυθμός παλαίωσης του εξοπλισμού είναι υψηλός. Υπολογίζεται ότι πολλά data centers AI θα χρειαστεί να αντικαταστήσουν ουσιαστικά το μεγαλύτερο μέρος των servers τους εντός 3-5 ετών, ειδάλλως θα μείνουν πίσω σε απόδοση και αποδοτικότητα έναντι ανταγωνιστών τους. Κάποιοι αναλυτές επισημαίνουν ότι η εκρηκτική και ταχύτατη αύξηση των επενδύσεων σε AI hardware ενδέχεται να δημιουργεί συνθήκες «φούσκας», καθώς μεγάλα έργα χρηματοδοτούνται συχνά με δανεισμό και στηρίζονται σε προσδοκίες μακροχρόνιας απόδοσης. Ωστόσο, η ραγδαία τεχνολογική εξέλιξη στον χώρο της τεχνητής νοημοσύνης ενέχει τον κίνδυνο αυτά τα υποδομικά assets να απαξιωθούν πρόωρα, πριν προλάβουν να αποσβεστούν οικονομικά, γεγονός που θα μπορούσε να πιέσει τις ταμειακές ροές, να αυξήσει τον χρηματοοικονομικό κίνδυνο και να οδηγήσει σε υπερβολικές αποτιμήσεις σε ολόκληρο το οικοσύστημαΜάλιστα, έχει διατυπωθεί η ανησυχία ότι “τα data centers θα υποτιμηθούν δύο φορές γρηγορότερα απ’ όσο παράγουν έσοδα”, υπονοώντας ότι ο εξοπλισμός θα ξεπεραστεί τόσο σύντομα που οικονομικά μπορεί να μην βγουν οι προβλέψεις κέρδους. Αυτό συνιστά κίνδυνο και για την ευρύτερη οικονομία αν αυτές οι επενδύσεις έχουν γίνει με μοχλευμένα κεφάλαια (δάνεια), διότι μια απότομη απαξίωση θα άφηνε χρέη χωρίς αντίκρισμα.Το hardware απαιτεί επίσης συνεχή τεχνική υποστήριξη. Υπάρχει κόστος από downtime, από πιθανές βλάβες, από αναβαθμίσεις λογισμικού/υλικολογισμικού. Όλα αυτά προσθέτουν στο συνολικό κόστος “υποδομής” ανά query, αν και είναι δύσκολο να ποσοτικοποιηθούν άμεσα. Συγκέντρωση υπολογιστικής ισχύος Ένα σχετικό θέμα είναι ότι οι απαιτήσεις υποδομής είναι τόσο μεγάλες που μόνο λίγοι παίκτες μπορούν να τις σηκώσουν. Αυτό οδηγεί σε μια συγκέντρωση της διαθέσιμης AI υποδομής σε ορισμένες εταιρείες, τις γνωστές και ως big tech και σε κάποιες γεωγραφικές περιοχές (π.χ. ΗΠΑ, Δυτική Ευρώπη, Κίνα). Η δημιουργία ενός νέου υπερ-υπολογιστικού κέντρου AI από το μηδέν είναι επιχειρηματικό εγχείρημα πολλών δισεκατομμυρίων. Αυτό καθιστά την είσοδο στο κορυφαίο επίπεδο AI να έχει τεράστια φραγή κόστους. Έτσι, το κόστος της υποδομής δεν αποτελεί απλώς μια λογιστική ή τεχνική παράμετρο, αλλά λειτουργεί ως κρίσιμος μηχανισμός διαμόρφωσης της ίδιας της αγοράς. Ευνοεί δυσανάλογα τους λίγους μεγάλους παίκτες που διαθέτουν επαρκή κεφαλαιακή ισχύ για να επενδύσουν σε ιδιόκτητο AI hardware και data centers, ενώ αντίθετα, μικρότεροι ή λιγότερο ισχυροί οργανισμοί εξαναγκάζονται να βασίζονται σε cloud υποδομές των μεγάλων, πληρώνοντας όχι μόνο το πραγματικό κόστος χρήσης αλλά και τους ενσωματωμένους συντελεστές κέρδους, γεγονός που ενισχύει τη συγκέντρωση ισχύος και περιορίζει τον ανταγωνισμό στο οικοσύστημα της τεχνητής νοημοσύνης.Εν τέλει, το κόστος υποδομής ανά query μπορεί να ιδωθεί ως το “ενοίκιο” που πληρώνουμε σε κάθε ερώτημα για όλες αυτές τις αθέατες επενδύσεις: τους servers, τα κτήρια, τις γραμμές οπτικών ινών, τα συστήματα backup κ.ο.κ. Αν και δύσκολο να απομονωθεί, αυτό το κόστος είναι πραγματικό. Σε συνδυασμό με τα ενεργειακά κόστη, γίνεται σαφές γιατί παρά την “ψηφιακή” φύση των AI υπηρεσιών, υπάρχει και ένας πολύ δαπανηρός μηχανισμός από πίσω τους. Κοινωνικό και ηθικό κόστος Πέρα από τις μετρήσιμες οικονομικές και φυσικές δαπάνες, η ευρεία χρήση της τεχνητής νοημοσύνης φέρνει και κοινωνικές/ηθικές “δαπάνες”. Έμμεσες αρνητικές συνέπειες που μπορεί να θεωρηθούν ένα είδος κόστους που πληρώνει η κοινωνία. Αυτά περιλαμβάνουν ζητήματα δικαιοσύνης και πρόσβασης, την επίδραση στην αγορά εργασίας, το κόστος της παραπληροφόρησης και τις ευρύτερες κοινωνικές μεταβολές που προκαλεί η AI.Η ανάπτυξη των LLMs κλιμακώνει τον κίνδυνο ενός “AI divide” , δηλαδή ενός χάσματος ανάμεσα σε αυτούς που έχουν πρόσβαση και ωφελούνται από την AI και σε αυτούς που μένουν πίσω. Τα ισχυρότερα μοντέλα απαιτούν τεράστιους πόρους, και ως εκ τούτου βρίσκονται υπό τον έλεγχο λίγων εταιρειών και χωρών. Αυτό εγείρει το ενδεχόμενο οι φτωχότερες χώρες ή μειονεκτικές ομάδες να μην μπορούν να αξιοποιήσουν τις δυνατότητες της AI, διευρύνοντας τις ήδη υπάρχουσες οικονομικές και κοινωνικές ανισότητες. Συγκεκριμένα, τονίζεται ότι περιοχές όπως οι αναπτυσσόμενες χώρες με ελλείψεις σε αξιόπιστο ρεύμα, internet και δεξιότητες κινδυνεύουν να αποκλειστούν από την AI οικονομία και να μείνουν πίσω στη νέας τεχνολογική εποχή. Αυτό συνιστά ένα κοινωνικό κόστος, μια εντεινόμενη ανισότητα.Ακόμα και εντός των ανεπτυγμένων κοινωνιών, η άνιση πρόσβαση σε AI εργαλεία ή η άνιση κατανομή των ωφελημάτων τους μπορεί να επιτείνει ανισότητες. Για παράδειγμα, μεγάλες εταιρείες που μπορούν να πληρώσουν AI συστήματα θα βελτιστοποιήσουν τις λειτουργίες τους και θα αποκομίσουν κέρδη παραγωγικότητας, ενώ μικρομεσαίες επιχειρήσεις ίσως δεν έχουν τους πόρους να κάνουν το ίδιο, δημιουργώντας ένα νέο χάσμα ανταγωνιστικότητας. Σε επίπεδο ατόμων, όσοι είναι εξοικειωμένοι με την τεχνολογία AI θα έχουν πλεονεκτήματα (π.χ. φοιτητές που χρησιμοποιούν ChatGPT για βοήθεια vs φοιτητές χωρίς πρόσβαση ή δεξιότητες σε αυτό). Αυτή η δυναμική “όποιος έχει, του δίνεται περισσότερο” αποτελεί ηθικό ζήτημα: χρειάζεται προσοχή ώστε η AI να μην γίνει παράγοντας συγκέντρωσης πλούτου και δύναμης στα χέρια λίγων. Παραπληροφόρηση και ποιότητα πληροφορίας Η AI διευκολύνει την μαζική παραγωγή περιεχομένου, συμπεριλαμβανομένου και ανακριβούς ή παραπλανητικού περιεχομένου. Το κόστος της παραπληροφόρησης στην κοινωνία ήταν ήδη τεράστιο: Μελέτη του 2019 υπολόγισε ότι τα fake news και γενικά η παραπληροφόρηση κόστιζαν στην παγκόσμια οικονομία ~$78 δισ. ετησίως (από απώλειες κεφαλαιαγορών, λανθασμένες αποφάσεις, κλονισμό εμπιστοσύνης). Τώρα, με εργαλεία όπως τα LLMs και τα deepfakes (πολυμεσικά αρχεία (εικόνες, βίντεο) στα οποία φαίνεται ή ακούγεται κάποιος να λέει ή να κάνει κάτι που δεν έχει πραγματικά πει ή κάνει) , η παραπληροφόρηση γίνεται φθηνότερη, ταχύτερη και πιο πειστική. Αυτό σημαίνει ότι το ήδη υψηλό κόστος μπορεί να αυξηθεί. Για παράδειγμα, η δημιουργία ψεύτικων ειδήσεων, πλαστών άρθρων ή ακόμα και αυτοματοποιημένων σχολίων/bots σε social media γίνεται εύκολη με LLMs, μειώνοντας το “κόστος” (σε χρόνο, ανθρώπους) που χρειάζεται κάποιος κακόβουλος για να πλημμυρίσει το διαδίκτυο με παραπληροφόρηση.Το κοινωνικό κόστος εδώ αντανακλάται σε διάφορες μορφές: απώλεια εμπιστοσύνης στους θεσμούς και τα μέσα ενημέρωσης, οικονομικές ζημίες από απάτες ή ψευδείς φήμες, ακόμα και κίνδυνοι για τη δημοκρατία (αν π.χ. η κοινή γνώμη επηρεάζεται από ψεύτικες narrations). Το World Economic Forum κατέταξε την ψηφιακή παραπληροφόρηση ως μια από τις κορυφαίες παγκόσμιες απειλές για το 2025, ακριβώς επειδή η AI την καθιστά δυσκολότερα αντιμετωπίσιμη και ανιχνεύσιμη. Οκτώ στους δέκα επιχειρηματικούς ηγέτες δηλώνουν πως ανησυχούν για το πλήγμα φήμης που μπορεί να υποστούν από AI-υποστηριζόμενη παραπληροφόρηση. Όλα αυτά τα άυλα πλήγματα όπως είναι διάβρωση της εμπιστοσύνης, διάχυση ψευδών συνιστούν πραγματικό κόστος για την κοινωνία, έστω κι αν δεν αποτιμώνται εύκολα σε χρήμα.Επιπλέον, η πλημμυρίδα AI-παραγόμενου περιεχομένου μπορεί να υποβαθμίσει τη συνολική ποιότητα της πληροφορίας. Ήδη παρατηρείται το φαινόμενο ιστότοποι να γεμίζουν με αυτόματα γραμμένα άρθρα χαμηλής ποιότητας, που δυσχεραίνουν τον εντοπισμό αξιόπιστων πηγών. Ο “θόρυβος” στο πληροφοριακό οικοσύστημα αυξάνεται, και αυτό απαιτεί νέους μηχανισμούς φιλτραρίσματος (με αντίστοιχο κόστος ανάπτυξης και πολυπλοκότητα). Ψυχολογικός και πολιτικός αντίκτυπος Η αλληλεπίδραση ανθρώπων με AI εγείρει ζητήματα και στην ψυχολογική και κοινωνική σφαίρα. Καθώς τα AI γίνονται πιο πανταχού παρόντα, υπάρχει ο κίνδυνος “εθισμού” ή υπερ-εξάρτησης από αυτά. Άνθρωποι μπορεί να αρχίσουν να εμπιστεύονται υπερβολικά τις AI απαντήσεις, παραμελώντας την κριτική τους ικανότητα. Ή μαθητές να χάσουν δεξιότητες (π.χ. στην έκφραση γραπτού λόγου) επειδή βασίζονται στα LLM για εργασίες. Αυτό θα μπορούσαμε να το ονομάσουμε κόστος “νοητικής αδράνειας” που ίσως συσσωρεύεται μακροπρόθεσμα. Επίσης, η αλληλεπίδραση με chatbot σαν να ήταν πραγματικά πρόσωπα μπορεί να δημιουργήσει παράξενα συναισθηματικά δεσίματα ή απογοητεύσεις. Το να εμπιστεύεται κάποιος ευαίσθητες συμβουλές (π.χ. ιατρικές, ψυχολογικές) σε ένα μοντέλο που ενδέχεται να κάνει λάθη, ενέχει ρίσκα για την ευημερία του. Όλα αυτά είναι δύσκολο να ποσοτικοποιηθούν, αλλά συνιστούν υπαρκτό κόστος στην ποιότητα ζωής και στην ανθρώπινη αυτονομία.Τα LLMs μπορούν να χρησιμοποιηθούν για να παράγουν πολιτική προπαγάνδα σε μαζική κλίμακα, εξατομικευμένη για διαφορετικές ομάδες. Αυτό αυξάνει το κόστος διατήρησης μιας υγιούς, ενημερωμένης δημοκρατικής διαδικασίας. Ήδη ενόψει εκλογών, οργανισμοί προειδοποιούν για τη χρήση generative AI σε ψεύτικες ειδήσεις ή σε κατασκευασμένες εικόνες πολιτικών αντιπάλων. Η κοινωνία θα πρέπει να δαπανά περισσότερους πόρους (χρόνο, εκπαίδευση, τεχνολογίες ανίχνευσης ψευδών) για να αντιμετωπίσει αυτές τις «έξυπνες» μορφές χειραγώγησης. Η δυσπιστία και πόλωση μπορούν να οξυνθούν κι αυτό αποτελεί κοινωνικό κόστος που πληρώνουμε όλοι.Ένα άλλο ηθικό κόστος είναι η διάβρωση της ιδιωτικότητας και η πιθανή κατάχρηση της AI για επιτήρηση. Η ευκολία με την οποία μπορούν να αναλυθούν τεράστια δεδομένα (π.χ. κείμενα, συνομιλίες) με AI, ίσως οδηγήσει κυβερνήσεις ή εταιρείες να επεκτείνουν την παρακολούθηση των πολιτών/χρηστών. Το κόστος εδώ είναι στην ελευθερία και τα δικαιώματα, μια διάσταση που συχνά συζητείται υπό το πρίσμα της ηθικής AI (AI ethics), και συνδέεται με την ανάγκη ρυθμίσεων. Απώλεια θέσεων εργασίας και ανάγκη επανεκπαίδευσης Ένα από τα πιο πολυσυζητημένα κοινωνικά κόστη της AI είναι η αναστάτωση στην αγορά εργασίας. Τα μεγάλα γλωσσικά μοντέλα ήδη αυτοματοποιούν ορισμένες εργασίες που εκτελούσαν άνθρωποι (π.χ. σύνταξη αναφορών, εξυπηρέτηση πελατών μέσω chat, παραγωγή περιεχομένου, ακόμα και προγραμματισμό σε βασικό επίπεδο). Αυτό θα μπορούσε να οδηγήσει σε απώλεια θέσεων εργασίας ή σε υποβάθμιση τους.Το κοινωνικό κόστος εδώ συνίσταται σε δύο πτυχές, αρχικά βραχυπρόθεσμα. Άνθρωποι ενδέχεται να μείνουν άνεργοι ή να δουν το αντικείμενό τους να συρρικνώνεται, δημιουργώντας οικονομική δυσπραγία, αυξημένη ανεργία και τις συνακόλουθες κοινωνικές πιέσεις. Ακόμη και αν η ανεργία δεν εκτοξευθεί, ο φόβος της απώλειας εργασίας μπορεί να προκαλεί άγχος στους εργαζόμενους (ψυχοκοινωνικό κόστος). Επιχειρήσεις ήδη αναφέρουν ότι παγώνουν προσλήψεις σε ορισμένους τομείς περιμένοντας αποδοτικότητα από την AI, αλλά και μακροπρόθεσμα. Θα απαιτηθεί ευρείας κλίμακας επανακατάρτιση (reskilling) του εργατικού δυναμικού. Το εργατικό δυναμικό καλείται να προσαρμοστεί στα νέα δεδομένα, αλλά αυτή η προσαρμογή έχει κόστος σε χρόνο, χρήμα και προσπάθεια. Κυβερνήσεις και εταιρείες θα πρέπει να επενδύσουν σε εκπαιδευτικά προγράμματα για να μετακινηθούν οι εργαζόμενοι σε νέους ρόλους που θα προκύψουν. Μέχρι να αποδώσει αυτό, ίσως υπάρξει μεταβατική ανεργία (frictional unemployment). Αναλύσεις της Goldman Sachs αναφέρουν ότι κατά την υιοθέτηση της AI, η ανεργία θα μπορούσε να αυξηθεί κατά ~0,5% προσωρινά λόγω του μετασχηματισμού, προτού οι εργαζόμενοι απορροφηθούν αλλού. Αυτό σημαίνει εκατομμύρια ανθρώπους που θα βιώσουν μια περίοδο ανεργίας και ανάγκη στήριξης. Αυτό το “κενό” είναι κοινωνικό κόστος που χρειάζεται διαχείριση μέσω πολιτικών (επιδόματα, προγράμματα κλπ).Επιπρόσθετα, η αντικατάσταση ανθρώπινου έργου με AI εγείρει ηθικά ζητήματα αξιοπρέπειας και νοήματος της εργασίας: αν εργασίες γίνονται από μηχανές, πώς διασφαλίζεται ότι οι άνθρωποι θα βρίσκουν νόημα και αξιοπρέπεια στον εργασιακό βίο; Υπάρχει ο κίνδυνος τεχνολογικού αποκλεισμού συγκεκριμένων ηλικιακών ομάδων (π.χ. μεγαλύτερης ηλικίας εργαζόμενοι μπορεί να δυσκολευτούν να επανεκπαιδευτούν). Αυτά είναι ποιοτικά ζητήματα που συνιστούν ηθικό κόστος στην κοινωνική συνοχή και ευημερία.Συνολικά, το κοινωνικό/ηθικό κόστος της AI είναι ότι φέρνει ανατροπές που, χωρίς μέριμνα, μπορεί να βλάψουν ευάλωτες ομάδες, να εντείνουν αδικίες ή να θέσουν σε δοκιμασία θεμελιώδεις αξίες (όπως η αλήθεια στον δημόσιο λόγο, η ιδιωτικότητα, η ισότητα ευκαιριών και η αξία της εργασίας). Αυτές οι “απώλειες” μπορεί να μην είναι εύκολα μετρήσιμες, αλλά είναι κρίσιμες στον απολογισμό του τι μας κοστίζει συλλογικά η υιοθέτηση της AI. Ευκαιριακό κόστος Ως ευκαιριακό κόστος ορίζουμε τι θυσιάζουμε επιλέγοντας μια δράση έναντι μιας εναλλακτικής. Στην περίπτωση της τεχνητής νοημοσύνης, το ευκαιριακό κόστος αποτυπώνεται στα πράγματα που δεν κάνουμε ή δεν χρηματοδοτούμε επειδή διοχετεύουμε πόρους (χρηματικούς, ανθρώπινους, θεσμικούς) στα LLMs. Αυτό το είδος κόστους είναι πιο θεωρητικό, όμως εξαιρετικά σημαντικό για στρατηγικές αποφάσεις σε επίπεδο κοινωνίας και πολιτικής. Κεφάλαια και έρευνα που κατευθύνονται αλλού Τα τελευταία χρόνια, έχουμε δει μια τεράστια εισροή επενδύσεων στην AI. Αυτό σημαίνει ότι εν μέρει αυτά τα κεφάλαια δεν πήγαν σε άλλους τομείς. Αν αυτά τα χρήματα δεν πήγαιναν στην AI, θα μπορούσαν να είχαν επενδυθεί σε ανανεώσιμες πηγές ενέργειας, σε έρευνα για ασθένειες, σε παραδοσιακές υποδομές ή σε εκπαίδευση. Το ίδιο ισχύει και για τις κυβερνητικές – δημόσιες δαπάνες: Υπουργεία και φορείς ανά τον κόσμο διοχετεύουν ολοένα και περισσότερα κονδύλια σε AI projects, άρα λιγότερα μένουν για άλλες δημόσιες ανάγκες.Ένα παράδειγμα ευκαιριακού κόστους: Αν ένα πανεπιστήμιο διαθέσει το μεγαλύτερο μέρος του προϋπολογισμού του για να ιδρύσει ένα AI research center, πιθανότατα θα πρέπει να μειώσει τη χρηματοδότηση άλλων τμημάτων (π.χ. ανθρωπιστικών επιστημών ή βασικής έρευνας σε μαθηματικά χωρίς άμεση σχέση με AI). Η κοινωνία ίσως κερδίζει σε AI γνώση, αλλά χάνει πιθανώς σε άλλες γνώσεις ή καινοτομίες που θα προέκυπταν αλλιώς. Αυτή η ισορροπία είναι λεπτή: η AI παρουσιάζεται ως τεχνολογία γενικού σκοπού με πολλαπλασιαστικά οφέλη, οπότε πολλοί θεωρούν λογικό να επενδύουμε εκεί. Ωστόσο, επισημαίνεται ότι η υπερβολική μονοκαλλιέργεια επενδύσεων στην AI μπορεί να είναι ριψοκίνδυνη αν παραμελεί άλλες ανάγκες. Για παράδειγμα, το να δαπανηθούν δισεκατομμύρια σε chatbot για την εκπαίδευση αντί για πρόσληψη εκπαιδευτικών ή βελτίωση σχολικών υποδομών είναι μια απόφαση με ευκαιριακό κόστος: ίσως τα παιδιά χάνουν καλύτερη ανθρώπινη διδασκαλία που θα είχαν αν οι πόροι πήγαιναν εκεί. Εναλλακτικά εργαλεία και λύσεις Συγκεκριμένα στον τομέα της εκπαίδευσης και της υγείας: Αν στηριχτούμε υπέρμετρα στην AI για διδασκαλία (π.χ. chatbots που απαντούν σε μαθητές) ή για ιατρικές συμβουλές (diagnostic AIs), ενδέχεται να υπο-επενδύσουμε σε παραδοσιακές λύσεις. Το ευκαιριακό κόστος εδώ μπορεί να είναι η ποιότητα. Ένα παράδειγμα: Μια χώρα αποφασίζει να εισαγάγει AI δασκάλους βοηθούς στα σχολεία με μεγάλο κόστος, αντί να μειώσει τον αριθμό μαθητών ανά τάξη μέσω πρόσληψης εκπαιδευτικών. Αν οι AI βοηθοί αποδειχθούν λιγότερο αποτελεσματικοί από το να υπήρχε μικρότερη τάξη με ανθρώπινο εκπαιδευτικό, τότε οι μαθητές πλήρωσαν το ευκαιριακό κόστος, χάνοντας την πιθανώς καλύτερη εκπαίδευση που θα είχαν αλλιώς.Παρομοίως, στον ιατρικό τομέα, φανταστείτε ένα σύστημα υγείας που επενδύει τεράστια ποσά σε AI για διάγνωση ή chatbots για πρωτοβάθμια φροντίδα, αντί σε κλίνες νοσοκομείων ή εκπαίδευση γιατρών. Αν η AI δεν αποδώσει τα υποσχόμενα αποτελέσματα (π.χ. κάνει λάθη διαγνώσεων ή οι ασθενείς δεν την εμπιστεύονται), τότε θα έχουν χαθεί κρίσιμα χρόνια και πόροι που θα μπορούσαν να είχαν βελτιώσει αλλιώς το σύστημα υγείας.Επίσης, πρέπει να σκεφτούμε τις εναλλακτικές τεχνολογικές διαδρομές που ίσως θυσιάζονται. Η τρέχουσα AI βασίζεται σε τεράστια νευρωνικά δίκτυα και big data. Αν όλοι επικεντρώνονται εκεί, ίσως χάνεται η ευκαιρία να διερευνηθούν άλλες προσεγγίσεις στην ΤΝ (π.χ. συστήματα που είναι πιο μικρά, ή σε AI που απαιτεί λιγότερα δεδομένα, ή ακόμα και μη-AI λύσεις σε προβλήματα). Το ότι οι καλύτεροι ερευνητές παγκοσμίως έχουν στραφεί στο deep learning LLM σημαίνει λιγότερη έρευνα σε άλλους τομείς της επιστήμης των υπολογιστών. Είναι πιθανό ότι κάτι σημαντικό (π.χ. μια νέα αρχιτεκτονική αλγορίθμου ή ένα φάρμακο) καθυστερεί να ανακαλυφθεί επειδή οι καλύτεροι “εγκέφαλοι” μας είναι απορροφημένοι κυρίως από το hype της AI. Κόστος ευκαιρίας σε δημόσιο επίπεδο Σε επίπεδο κρατικής πολιτικής, τίθενται ερωτήματα: Εάν μια κυβέρνηση διαθέτει περιορισμένο προϋπολογισμό, πόσο να δώσει στην ανάπτυξη AI σε σχέση με άλλα ζητήματα; Για παράδειγμα, αν επενδύσει επιθετικά στην κατασκευή AI υποδομών, μπορεί να θυσιάζει επενδύσεις σε κοινωνική πρόνοια, κλιματική δράση ή παραδοσιακή βιομηχανική ανάπτυξη. Εδώ, το ρίσκο είναι ένα είδος μονόπλευρης εξέλιξης: Γίνεσαι μεν πρωτοπόρος στην AI (με τις συναφείς οικονομικές αποδόσεις), αλλά ίσως μένεις πίσω σε αυτοδυναμία τροφίμων ή σε πράσινη μετάβαση ή σε πολιτιστική ανάπτυξη. Για μικρότερες χώρες ειδικά, το δίλημμα είναι έντονο: να ακολουθήσουν τον αγώνα επενδύσεων στην AI (για να μην μείνουν τεχνολογικά πίσω) ή να εστιάσουν σε άλλες προτεραιότητες και να αποδεχτούν ότι θα στηριχτούν σε εισαγόμενη AI; Και οι δύο επιλογές έχουν ευκαιριακό κόστος.Επιπλέον, η κοινή γνώμη και η προσοχή αποτελούν επίσης ένα πεπερασμένο πόρο. Το τεράστιο ενδιαφέρον για την AI σημαίνει ότι πολιτικοί, ΜΜΕ, κοινό αφιερώνουν δυσανάλογο χρόνο σε αυτήν εις βάρος άλλων σοβαρών θεμάτων (όπως π.χ. οι υπαρκτές κοινωνικές ανισότητες, η κλιματική κρίση, γεωπολιτικές εντάσεις). Θα μπορούσε να ειπωθεί ότι υπάρχει ένα κόστος ευκαιρίας της προσοχής: όσο μιλάμε για τα ρίσκα και τις υποσχέσεις της AI, ίσως δεν μιλάμε αρκετά για άλλα προβλήματα. Αυτό μπορεί να οδηγήσει σε λανθασμένες προτεραιότητες.Εν κατακλείδι, το ευκαιριακό κόστος της εστίασης στα LLMs μπορεί να συνοψιστεί στο ερώτημα: “Τι άλλο θα μπορούσαμε να έχουμε κάνει με όλους αυτούς τους πόρους, αν δεν τους ξοδεύαμε στην AI;”. Δεν υπάρχει εύκολη ή σίγουρη απάντηση, αλλά η διερεύνηση του ερωτήματος αυτού είναι σημαντική ώστε να εξισορροπήσουμε τις επενδύσεις και τις πολιτικές μας. Η AI υπόσχεται μεγάλες αποδόσεις, όμως χρειάζεται να διασφαλίσουμε ότι η κατανομή πόρων δεν αφήνει κρίσιμα κενά αλλού, γιατί τότε το “κόστος ανά query” θα περιλαμβάνει και όλες τις χαμένες ευκαιρίες ανάπτυξης ή ευημερίας αλλού. Μακροπρόθεσμο κόστος Κοιτώντας προς το μέλλον, προκύπτουν ορισμένα μακροπρόθεσμα κόστη και διλήμματα σχετικά με την εκτενή χρήση της AI. Αυτά αφορούν τη βιωσιμότητα της συνεχούς κλιμάκωσης, τις γεωπολιτικές προεκτάσεις και τη συγκέντρωση ισχύος, καθώς και πιο αφηρημένα κόστη όπως η ενδεχόμενη εξάρτηση της ανθρωπότητας από την AI.Μέχρι τώρα, η πρόοδος στα LLMs έχει έρθει σε μεγάλο βαθμό μέσω της κλιμάκωσης: περισσότερα δεδομένα, περισσότερες παράμετροι, περισσότερη υπολογιστική ισχύς. Όμως αυτή η κλιμάκωση έχει οδηγήσει το κόστος σε εκθετική. Κάθε νέα γενιά μοντέλου έχει απαιτεί δυσανάλογα μεγαλύτερη υπολογιστική προσπάθεια και κόστος εκπαίδευσης από τον προκάτοχό του. Αυτό εγείρει το ερώτημα: είναι βιώσιμο να συνεχίσουμε να κλιμακώνουμε; Και αν ναι, ποιος θα πληρώσει το τίμημα;Εύκολα μπορεί να καταλάβει κάποιος, ότι το μακροπρόθεσμο κόστος της κλιμάκωσης μπορεί να αποδειχθεί δυσβάσταχτο. Ήδη, εταιρείες όπως η OpenAI στρέφονται σε βελτιώσεις αποδοτικότητας (π.χ. βελτιωμένοι αλγόριθμοι, βελτίωση hardware, χρήση τεχνικών όπως sparsity, LoRA κ.λπ.) για να αποκομίσουν περισσότερη “νοημοσύνη” χωρίς αντίστοιχο κόστος αύξησης. Ωστόσο, αν υποθέσουμε ότι για να επιτευχθεί τεχνητή γενική νοημοσύνη (AGI) χρειάζονται μοντέλα τάξεις μεγέθους μεγαλύτερα, αυτό θα απαιτήσει τεράστια ενεργειακά και οικονομικά κόστη. Η Τεχνητή Γενική Νοημοσύνη (AGI – Artificial General Intelligence) αναφέρεται σε ένα υποθετικό επίπεδο τεχνητής νοημοσύνης που διαθέτει την ικανότητα να κατανοεί, να μαθαίνει και να εφαρμόζει τη νοημοσύνη της σε ένα ευρύ φάσμα εργασιών, όπως ακριβώς ένας άνθρωπος, σε αντίθεση με την σημερινή ΤΝ που είναι εξειδικευμένη. Το κρίσιμο ερώτημα όμως είναι: Υπάρχει σημείο φθίνουσας απόδοσης; Δηλαδή, αν θα φτάσουμε σε σημείο όπου το παραπάνω κόστος δεν δικαιολογείται από την οριακή βελτίωση στην ποιότητα των μοντέλων. Πολλοί πιστεύουν πως υπάρχει, ενώ άλλοι ότι πλησιάζουμε σε αυτό το σημείο. Αν ισχύει κάτι τέτοιο, τότε προκύπτει το “κόστος εθισμού στην κλιμάκωση” , δηλαδή ο εθισμός μας να ξοδεύουμε ολοένα και περισσότερα για όλο και μικρότερα οφέλη.Ως ανθρωπότητα, πρέπει να αναλογιστούμε ποιο είναι το αποδοτικό όριο των πόρων που θα αφιερώσουμε στην AI. Υπάρχει ένας θεωρητικός κίνδυνος ότι σε κάποιο σενάριο, η AI βελτιώνεται μεν, αλλά το κόστος της (ενεργειακό, οικονομικό) μεγαλώνει γρηγορότερα, οδηγώντας σε ένα δυσμενές ισοζύγιο. Κάτι τέτοιο, θα ήταν αυτό αποδεκτό κοινωνικά; Πιθανότατα όχι, άρα υπάρχει ένα όριο στο πόσο μπορούμε να σπρώχνουμε προς τα πάνω τα κόστη ανά query προκειμένου να πάρουμε καλύτερες απαντήσεις. Γεωπολιτικά κόστη και αγώνας ισχύος Η Τεχνητή Νοημοσύνη έχει γίνει πεδίο γεωπολιτικού ανταγωνισμού. Οι χώρες αντιλαμβάνονται ότι όποιος προηγείται στην AI, έχει στρατηγικό και οικονομικό πλεονέκτημα (π.χ. πιο παραγωγική οικονομία, στρατιωτικές εφαρμογές AI, διεθνή επιρροή μέσω τεχνολογίας). Αυτό οδηγεί σε μια κούρσα εξοπλισμών (arms race) επικεντρωμένο στην AI. Το κόστος αυτής της κούρσας είναι πολυεπίπεδο. Οικονομικό/Ευκαιριακό Τεράστιοι κρατικοί πόροι δαπανώνται για να υποστηριχθούν οι εγχώριες AI βιομηχανίες. Η Κίνα επενδύει δεκάδες δισ. σε AI ετησίως, όπως και οι ΗΠΑ. Αυτά τα ποσά, όπως προαναφέρθηκε, είναι χρήματα που δεν θα πάνε σε άλλα κοινά αγαθά. Αν ο ανταγωνισμός ενταθεί, χώρες μπορεί να αρχίσουν να υπερεπενδύσουν φοβούμενες μη μείνουν πίσω, πράγμα που μακροπρόθεσμα θα μπορούσε να φέρει αστάθεια στις οικονομίες τους, ειδικά αν δημιουργηθεί και φούσκα AI (φαινόμενο όπου οι αποτιμήσεις και δαπάνες στην AI δεν αντικατοπτρίζουν πραγματική αξία, και κάποια στιγμή σκάσει, επιφέροντας κρίση). Ήδη, αναλυτές ανησυχούν ότι η έκρηξη data centers, εν μέρει χρηματοδοτούμενη από ιδιωτικό χρέος, θα μπορούσε να αποτελεί συστημικό κίνδυνο αν τα προσδοκώμενα έσοδα δεν υλοποιηθούν πραγματικά. Πολιτικός κίνδυνος Ο ανταγωνισμός για την πρωτιά στην AI μπορεί να οδηγήσει σε μείωση συνεργασίας διεθνώς. Αντί οι χώρες να συνεργάζονται για παγκόσμια προβλήματα (κλίμα, υγεία), μπορεί να εγκλωβιστούν σε μια λογική “ο νικητής τα παίρνει όλα” και να επιζητούν τέτοιες πολιτικές. Αυτό είναι κόστος ευκαιρίας για την ανθρωπότητα. Αντί να λύσουμε συλλογικά υπαρκτά προβλήματα, διοχετεύουμε ενέργεια στον τεχνολογικό ανταγωνισμό. Σε πιο ακραίο επίπεδο, η AI μπορεί να ενταχθεί και στην πολεμική τεχνολογία (autonomous weapons, κυβερνοπόλεμος). Αυξάνεται έτσι ο κίνδυνος αστάθειας και σύγκρουσης, κάτι το οποίο είναι ανυπολόγιστου κόστους. Ίσως για κάποιους να υπάρχει η ανησυχία ότι αυτόνομοι αλγόριθμοι θα μπορούσαν να λαμβάνουν επιθετικές αποφάσεις πολύ ταχύτερα απ’ ό,τι μπορούν οι άνθρωποι να αντιδράσουν (π.χ. στον κυβερνοχώρο ή ακόμα και στον στρατιωτικό τομέα), οδηγώντας σε κλιμακώσεις. Συγκέντρωση ισχύος Γεωπολιτικά, διαφαίνεται μια συγκέντρωση τεχνολογικής ισχύος στις ΗΠΑ και στην Κίνα. Χώρες που δεν θα αναπτύξουν τις δικές τους δυνατότητες AI θα εξαρτώνται από αυτές που έχουν, καθιστώντας τες ευάλωτες σε οικονομική και πολιτική επιρροή. Για παράδειγμα, αν όλα τα προηγμένα μοντέλα ανήκουν σε 2-3 εταιρείες μιας χώρας, οι υπόλοιποι θα πρέπει να πληρώνουν αδειοδοτήσεις ή να υπόκεινται στους όρους που θέτουν αυτές οι εταιρείες. Αυτό το ολιγοπώλιο μπορεί να έχει κόστος καινοτομίας (λιγότερος ανταγωνισμός, υψηλότερες τιμές σε AI υπηρεσίες) αλλά και κόστος εθνικής κυριαρχίας για πολλές χώρες που δεν θα έχουν λόγο στην εξέλιξη της τεχνολογίας. Ήδη, η αξία εταιρειών όπως η NVIDIA (βασικός προμηθευτής hardware) έχει εκτοξευθεί. Η OpenAI αξίζει εκατοντάδες δισεκατομμύρια, ενώ η Google και η Microsoft τρισεκατομμύρια. Αυτή η συγκέντρωση κεφαλαίου είναι πρωτοφανής για την ανθρωπότητα, και αν μεταφραστεί και σε τεχνολογικό έλεγχο, αποτελεί μια μορφή ισχύος που μπορεί να επηρεάσει γεωπολιτικές ισορροπίες. Το κόστος μιας τέτοιας συγκέντρωσης μπορεί να είναι η περιορισμένη πρόσβαση ή η περιορισμένη φωνή των μικρότερων παικτών στις αποφάσεις. Εξάρτηση και απώλεια δεξιοτήτων Ένα πιο φιλοσοφικό μακροπρόθεσμο κόστος είναι η πιθανότητα η κοινωνία να γίνει εξαρτημένη από την AI σε βαθμό που να αποδυναμώσει ανθρώπινες ικανότητες ή θεσμούς. Αν κάθε φορά που πρέπει να πάρουμε μια απόφαση στρεφόμαστε σε μια AI, ίσως με τα χρόνια ατροφεί η ικανότητά μας για κριτική σκέψη ή δημιουργικότητα. Αν οι γιατροί βασίζονται πλήρως σε AI για διαγνώσεις, μπορεί να χαθεί η τέχνη της κλινικής διάγνωσης. Αν οι οδηγοί βασίζονται σε αυτόνομα συστήματα, μπορεί να χάσουν την ικανότητα να αντιδρούν σε δύσκολες καταστάσεις του δρόμου. Αυτές οι απώλειες δεξιοτήτων και γνώσης είναι αόρατες βραχυπρόθεσμα αλλά δυνητικά σημαντικές μακροπρόθεσμα. Η ανθρώπινη κοινωνία ιστορικά έχει περάσει βασικές καθοριστικές γνώσεις και δουλειές σε μηχανές (π.χ. αριθμητικός υπολογισμός σε κομπιούτερ), γεγονός που απελευθέρωσε χρόνο για άλλες δημιουργικές ασχολίες. Η διαφορά με την σύγχρονη AI είναι ότι διεκδικεί να αναλάβει γνωστικές εργασίες υψηλού επιπέδου. Εάν αφεθούμε και σε άλλους τομείς, παραδείγματος χάριν, στο να παίρνει η AI δικαστικές αποφάσεις ή να διαμορφώνει πολιτικές, το κόστος μπορεί να είναι η απώλεια του ανθρωποκεντρικού χαρακτήρα των θεσμών μας, κάτι που ανοίγει πολύ βαθιά ηθικά ερωτήματα. Υπαρξιακά και ασαφή ρίσκα Τέλος, σε πιο θεωρητικό επίπεδο, μερικοί στοχαστές μιλούν για υπαρξιακό κόστος/ρίσκο από την AI. Δηλαδή την πιθανότητα η ανεξέλεγκτη ανάπτυξή της να οδηγήσει σε σενάρια καταστροφικά (π.χ. μια εξαιρετικά προηγμένη AI να ενεργήσει με τρόπους επιζήμιους για την ανθρωπότητα). Αν και αυτά τα σενάρια είναι εικαστικά, έχουν προταθεί ως λόγος για να επιβραδύνουμε αυτή την ανάπτυξη (cost of scaling too fast). Αν και αυτά παραμένουν θεωρητικά, αξίζει να αναφερθούν ως μέρος των “κρίσιμων ερωτημάτων”: δηλαδή, πόσο ρίσκο είμαστε διατεθειμένοι να αναλάβουμε και για ποια οφέλη. Διότι το ρίσκο μπορεί να ιδωθεί ως μια μορφή κόστους: το αναμενόμενο κόστος μιας χαμηλής πιθανότητας αλλά υψηλού αντικτύπου καταστροφής.Πρακτικότερα, υπάρχει και το κόστος ρυθμιστικής αβεβαιότητας στο μακροπρόθεσμο: Εάν δεν θεσπιστούν κατάλληλοι κανονισμοί και πρότυπα για την AI, οι κοινωνίες μπορεί να υποστούν ζημίες προτού αντιδράσουν. Από την άλλη, αν θεσπιστούν υπερβολικά αυστηροί ή εσφαλμένοι κανονισμοί, ίσως πληρώσουμε το τίμημα της καταστολής της καινοτομίας. Το να βρούμε αυτή την ισορροπία έχει σημασία, διότι είτε η μια είτε η άλλη υπερβολή συνιστούν μακροπρόθεσμα κόστη (είτε ως ζημιές από ανεξέλεγκτες χρήσεις, είτε ως χαμένες ωφέλειες). Σύνοψη μακροπρόθεσμων προβληματισμών Συνολικά, τα μακροπρόθεσμα κόστη της AI συμπεριλαμβάνουν: την πιθανότητα μη βιώσιμης πορείας όπου κάθε βήμα βελτίωσης απαιτεί τεράστιο κόστος, τον κίνδυνο παγίδευσης σε μια γεωπολιτική κούρσα που αποσπά από άλλους στόχους και μπορεί να φέρει αστάθεια, την διαρκή μεταβίβαση δύναμης σε λίγους φορείς, και την ενδεχόμενη έκπτωση ανθρώπινων στοιχείων στην κοινωνία (αυτονομία, δεξιότητες, αξίες). Αυτά είναι τα “κρυφά” κόστη ανά query, όταν εμείς απλά λαμβάνουμε μια βολική απάντηση από το ChatGPT. Ίσως δεν τα σκεφτόμαστε, αλλά σε μεγάλο βάθος χρόνου είναι μέρος του συνολικού ισοζυγίου κόστους-οφέλους που αφορά τη χρήση τέτοιων εργαλείων. Συμπεράσματα Η χρήση της Τεχνητής Νοημοσύνης, ειδικά των μεγάλων γλωσσικών μοντέλων, δεν είναι δωρεάν. Αντίθετα, συνοδεύεται από ένα περίπλοκο πλέγμα κόστους που εκτείνεται σε πολλούς άξονες. Προσπαθώντας να υπολογίσουμε το “κόστος ανά ερώτημα” μιας AI, ανακαλύπτουμε ότι αυτό το φαινομενικά απλό ερώτημα απαιτεί μια πολύπλευρη ανάλυση.Σε καθαρά οικονομικούς όρους, κάθε query κοστίζει κάποιο κλάσμα του σεντ σε υπολογιστικούς πόρους, αλλά προστιθέμενο σε εκατομμύρια queries την ημέρα οδηγεί σε δεκάδες ή εκατοντάδες χιλιάδες δολάρια κόστος ημερησίως για τους παρόχους. Η υποδομή πίσω από αυτά τα μοντέλα κοστίζει δισεκατομμύρια για να στηθεί και διαρκώς ώστε να αναβαθμίζεται, κόστος που τελικά περνά στους χρήστες (άμεσα ή έμμεσα). Ήδη το επιχειρηματικό μοντέλο υπηρεσιών AI (freemium ή επί πληρωμή) αντανακλά το κόστος αυτό.Το περιβαλλοντικό κόστος αποκαλύπτει ότι η AI δεν είναι άυλη: καίει ρεύμα, εκπέμπει CO₂, ζεσταίνει νερά και απαιτεί υλικά. Αν και η βελτίωση αποδοτικότητας έχει μειώσει το ενεργειακό αποτύπωμα ανά query, η κλίμακα χρήσης πολλαπλασιάζει την συνολική επίπτωση. Η βιωσιμότητα της AI θα εξαρτηθεί από το αν μπορούμε να καλύψουμε αυτές τις ανάγκες με καθαρή ενέργεια και αποδοτικούς σχεδιασμούς. Αλλιώς, υπάρχει κίνδυνος η AI να γίνει ένας νέος σημαντικός ρυπαντής ή ανταγωνιστής για πόρους (ρεύμα, νερό) σε έναν πλανήτη ήδη υπό πίεση.Σε επίπεδο υποδομών, το κόστος είναι τεράστιο αλλά και αναγκαίο: οι κοινωνίες επενδύουν σε αυτή τη “νέα ηλεκτρική ενέργεια” που είναι η AI. Ωστόσο, πρέπει να προσέξουμε τη φούσκα: αν οι επενδύσεις καθοδηγούνται μόνο από αισιοδοξία χωρίς ρεαλιστική εκτίμηση αποδόσεων, μπορεί να δούμε οικονομικές αναταράξεις, κάτι που θα πληρώσουν ευρύτερα οι πολίτες.Το κοινωνικό και ηθικό κόστος μας θυμίζει ότι κάθε τεχνολογική επανάσταση φέρνει νικητές και χαμένους. Εδώ, οι χαμένοι θα μπορούσαν να είναι όσοι δεν έχουν πρόσβαση, όσοι χάνουν τη δουλειά τους και πρέπει να επανεφεύρουν τον εαυτό τους, ή όσοι γίνουν θύματα παραπληροφόρησης και χειραγώγησης. Αυτά τα κόστη δεν είναι τεχνικά, αλλά ανθρώπινα. Η αντιμετώπισή τους απαιτεί πολιτικές και κοινωνικές πρωτοβουλίες: εκπαίδευση ψηφιακού γραμματισμού (για να αναγνωρίζει κανείς AI-generated ψεύδη), δίκτυα ασφαλείας για εργαζόμενους, διεθνή συνεργασία για να μην μείνει κανείς πίσω (π.χ. ανοικτά μοντέλα που μπορούν να υιοθετήσουν και φτωχότερες χώρες).Το ευκαιριακό κόστος επισημαίνει τη σημασία ισορροπίας: η AI είναι σαγηνευτική και πολλά υποσχόμενη, αλλά ο κόσμος έχει και άλλες ανάγκες. Δεν πρέπει η λάμψη της να μας τυφλώσει και να ξεχάσουμε βασικά καθήκοντα, όπως το να βελτιώνουμε τα συστήματα υγείας και παιδείας μας με ανθρώπινους τρόπους μέχρι να επενδύουμε σε κλασικές υποδομές ή στην κλιματική δράση. Η πρόκληση για τους ηγέτες είναι να βρουν πού η AI δίνει πράγματι την καλύτερη απόδοση για την κοινωνία και πού όχι, ώστε να κατανείμουν αναλόγως τους πόρους.Τέλος, τα μακροπρόθεσμα ζητήματα μας αναγκάζουν να σκεφτούμε στρατηγικά: Ποιο μέλλον με την AI θέλουμε; Ένα μέλλον όπου αυτή θα είναι ένας παντοδύναμος αλλά αδιαφανής μοχλός σε κάθε πλευρά της ζωής; Ή ένα μέλλον όπου η AI θα είναι εργαλείο, αλλά με τον άνθρωπο στο τιμόνι; Οι αποφάσεις που παίρνουμε σήμερα (για ρυθμίσεις, για επενδύσεις, για συνεργασία ή ανταγωνισμό) θα καθορίσουν σε μεγάλο βαθμό αν η AI θα μας υπηρετεί ή αν άθελά μας θα υπηρετούμε εμείς αυτήν.Συνοψίζοντας με έναν πολυδιάστατο “ορισμό”, το «κόστος χρήσης της AI» ανά query είναι το άθροισμα: του χρηματικού κόστους σε υποδομές και ενέργεια, του περιβαλλοντικού αποτυπώματος που αφήνει, του κόστους στη διατήρηση και ανανέωση υλικού, του κοινωνικού κόστους σε εργασία, αλήθεια και ισότητα, του κόστους ευκαιρίας να μην επενδύουμε σε κάτι άλλο, και των δυνητικών μελλοντικών κόστους αν δεν χαράξουμε σωστή πορεία.Για κάθε ερώτηση που απαντά ένα LLM, στο παρασκήνιο “ξοδεύονται” kilowatt, πολύτιμο νερό, ακριβά μικροτσίπ, ανθρώπινη εργασία χιλιάδων ωρών που το έφτιαξε, και ίσως διακυβεύονται κοινωνικές αξίες. Αν γνωρίζουμε αυτά τα κόστη, μπορούμε συνειδητά να εργαστούμε στο να ελαχιστοποιήσουμε τα αρνητικά (με αποδοτικότερη, πιο πράσινη AI, με δίκαιη πρόσβαση, με θεσμικές ασφαλιστικές δικλείδες) και να μεγιστοποιήσουμε τα οφέλη που η AI υπόσχεται. Η τεχνητή νοημοσύνη μπορεί να φέρει ανυπολόγιστα οφέλη, αλλά αυτά δεν έρχονται “δωρεάν”. Το “τίμημα” υπάρχει, και είναι ευθύνη όλων μας να διασφαλίσουμε ότι αξίζει τον κόπο να το πληρώσουμε. *Ο Γεράσιμος Τζιβράς είναι προγραμματιστής, καθηγητής στην Τριτοβάθμια Εκπαίδευση και υποψήφιος διδάκτορας του Τμήματος Πληροφορικής και Τηλεπικοινωνιών του Πανεπιστημίου Πελοποννήσου, με αντικείμενο τις Προσαρμοστικές Διεπαφές Χρήστη. Η ερευνητική του εργασία επικεντρώνεται στη μοντελοποίηση της προβλεπτικής συμπεριφοράς χρηστών και στον δυναμικό επανασχεδιασμό διεπαφών με τη βοήθεια τεχνητής νοημοσύνης με στόχο τη δημιουργία πιο προσωποποιημένων και λειτουργικών εμπειριών χρήσης. https://www.naftemporiki.gr/techscience/2059944/to-polydiastato-kostos-chrisis-tis-technitis-noimosynis/ Το επεξεργάστηκε Ιανουάριος 17 ο Δροσος Γεωργιος Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο. Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.
Δροσος Γεωργιος Δημοσιεύτηκε Ιανουάριος 18 Συγγραφέας Δημοσιεύτηκε Ιανουάριος 18 Ντέμης Χασάμπης: Η Κίνα βρίσκεται μόλις λίγους μήνες πίσω από τις ΗΠΑ στη τεχνολογία τεχνητής νοημοσύνης. Ο κορυφαίος ερευνητής τεχνητής νοημοσύνης και νομπελίστας ανατρέπει όσα πιστεύει η βιομηχανία τεχνολογίας μέχρι σήμερα. Τα μοντέλα τεχνητής νοημοσύνης της Κίνας μπορεί να απέχουν μόλις «λίγους μήνες» από τις δυνατότητες των ΗΠΑ και της Δύσης, δήλωσε διευθύνων σύμβουλος της Google DeepMind Ντέμης Χασάμπης. Η εκτίμηση αυτή από τον επικεφαλής ενός από τα κορυφαία εργαστήρια τεχνητής νοημοσύνης παγκοσμίως και βασικό συντελεστή πίσω από τον βοηθό Gemini της Google έρχεται σε αντίθεση με απόψεις που υποστήριζαν ότι η Κίνα παραμένει πολύ πίσω.Μιλώντας στο νέο podcast του CNBC, The Tech Download, ο ελληνοκυπριακής καταγωγής ερευνητής και νομπελίστας είπε ότι τα κινεζικά μοντέλα τεχνητής νοημοσύνης βρίσκονται πιο κοντά στις δυνατότητες των ΗΠΑ και της Δύσης «απ’ όσο ίσως νομίζαμε πριν από ένα ή δύο χρόνια».«Ίσως αυτή τη στιγμή να απέχουν μόνο μερικούς μήνες» ανέφερε. Πριν από περίπου έναν χρόνο, το κινεζικό εργαστήριο τεχνητής νοημοσύνης DeepSeek παρουσίασε ένα μοντέλο που προκάλεσε αναταράξεις στις αγορές, λόγω της ισχυρής του απόδοσης, η οποία επιτεύχθηκε με λιγότερο προηγμένα τσιπ και χαμηλότερο κόστος σε σύγκριση με τα αμερικανικά αντίστοιχα.Παρότι η κινεζική DeepSeek που ανέπτυξε μια επαναστατική αρχιτεκτονική για συστήματα τεχνητής νοημοσύνης έχει παρουσιάσει νέα μοντέλα και το στοιχείο της έκπληξης έχει ατονήσει κινεζικοί τεχνολογικοί κολοσσοί όπως η Alibaba καθώς και άλλες νεοφυείς εταιρείες όπως οι Moonshot AI και Zhipu έχουν επίσης κυκλοφορήσει ιδιαίτερα ικανά μοντέλα.Ωστόσο ο Χασάμπης σημείωσε ότι παρόλο που η Κίνα μπορεί να καλύπτει τη διαφορά οι εταιρείες της δεν έχουν ακόμη αποδείξει ότι μπορούν να πετύχουν πραγματικές επιστημονικές τομές στην τεχνητή νοημοσύνη.«Το ερώτημα είναι αν μπορούν να καινοτομήσουν κάτι νέο πέρα από το σημερινό όριο. Νομίζω ότι έχουν δείξει πως μπορούν να καλύψουν τη διαφορά και να πλησιάσουν πολύ το όριο αλλά αν μπορούν να εφεύρουν κάτι πραγματικά νέο αυτό δεν έχει αποδειχθεί ακόμη» είπε.Πολλές σημαντικές προσωπικότητες της τεχνολογίας έχουν αναγνωρίσει την πρόοδο της Κίνας. Ο διευθύνων σύμβουλος της Nvidia Γιένσεν Χουάνγκ δήλωσε πέρυσι ότι οι ΗΠΑ «δεν βρίσκονται πολύ μπροστά» στην κούρσα της τεχνητής νοημοσύνης.«Η Κίνα είναι πολύ μπροστά από εμάς στην ενέργεια. Εμείς είμαστε πολύ μπροστά στα τσιπ. Είναι ισότιμοι στις υποδομές. Είναι ισότιμοι στα μοντέλα τεχνητής νοημοσύνης» είχε πει Χουάνγκ. Προκλήσεις στα τσιπ για την Κίνα Οι κινεζικές τεχνολογικές εταιρείες αντιμετωπίζουν αρκετές προκλήσεις, με μία από τις μεγαλύτερες να είναι η πρόσβαση σε κρίσιμη τεχνολογία. Υπάρχει σε ισχύ απαγόρευση εξαγωγών από τις ΗΠΑ για τα πιο προηγμένα ημιαγωγικά τσιπ της Nvidia, τα οποία απαιτούνται για την εκπαίδευση πιο εξελιγμένων μοντέλων ΑΙ.Ο Λευκός Οίκος έχει αφήσει να εννοηθεί ότι θα εγκρίνει την πώληση του τσιπ H200 της Nvidia στην Κίνα, ενός πιο προηγμένου ημιαγωγού από ό,τι είχε πρόσφατα στη διάθεσή της η χώρα, αλλά όχι του κορυφαίου προϊόντος της εταιρείας. Εγχώριες εταιρείες τσιπ, όπως η Huawei, προσπαθούν να καλύψουν το κενό όμως οι επιδόσεις τους εξακολουθούν να υστερούν σε σχέση με τις λύσεις της Nvidia.Ορισμένοι αναλυτές εκτιμούν ότι μακροπρόθεσμα η έλλειψη πρόσβασης στα τσιπ της Nvidia θα μπορούσε να οδηγήσει σε διεύρυνση του χάσματος μεταξύ των αμερικανικών και κινεζικών μοντέλων τεχνητής νοημοσύνης. «Υποψιάζομαι ότι θα αρχίσουμε να βλέπουμε μια απόκλιση, καθώς η ανώτερη υποδομή τεχνητής νοημοσύνης των ΗΠΑ θα συνεχίσει να εξελίσσει αυτά τα μοντέλα και να τα καθιστά πιο ικανά με την πάροδο των ετών», δήλωσε στο CNBC ο Ρίτσαρντ Κλοντ της Janus Henderson. «Άρα θα έλεγα ότι βρισκόμαστε στο μέγιστο σημείο της σχετικής ικανότητας της κινεζικής τεχνητής νοημοσύνης σε σύγκριση με τις ΗΠΑ».Ο Λιν Τζουνγιάνγκ τεχνικός επικεφαλής της ομάδας Qwen της Alibaba δήλωσε σε συνέδριο τεχνητής νοημοσύνης στο Πεκίνο ότι υπάρχει λιγότερο από 20% πιθανότητα μια κινεζική εταιρεία να ξεπεράσει τους αμερικανικούς τεχνολογικούς κολοσσούς μέσα στα επόμενα τρία έως πέντε χρόνια. Σύμφωνα με τον ίδιο η υπολογιστική υποδομή των ΗΠΑ είναι «μία έως δύο τάξεις μεγέθους μεγαλύτερη» από της Κίνας.Ο Χασάμπης πάντως αποδίδει την έλλειψη πρωτοποριακών ανακαλύψεων περισσότερο σε «νοοτροπία» παρά σε τεχνολογικούς περιορισμούς. «Ένα σύγχρονο Bell Labs» Ο διευθύνων σύμβουλος της DeepMind παρομοίασε την εταιρεία με ένα «σύγχρονο Bell Labs», που ενθαρρύνει την «εξερευνητική καινοτομία» αντί για την απλή κλιμάκωση όσων είναι ήδη γνωστά. Τα Bell Labs, που ιδρύθηκαν στις αρχές του 20ού αιώνα, ήταν υπεύθυνα για πολλές ανακαλύψεις βραβευμένες με Νόμπελ.«Αυτό είναι ήδη πολύ δύσκολο, γιατί χρειάζεσαι μηχανική παγκόσμιου επιπέδου για να το κάνεις. Και η Κίνα σίγουρα την έχει» αναφέρει ο Χασάμπης.«Το κομμάτι της επιστημονικής καινοτομίας είναι πολύ πιο δύσκολο. Το να εφεύρεις κάτι είναι περίπου 100 φορές δυσκολότερο από το να το αντιγράψεις. Αυτό είναι το επόμενο σύνορο, και δεν έχω δει ακόμη αποδείξεις γι’ αυτό, αν και είναι εξαιρετικά απαιτητικό». Ο Χασάμπης θεωρείται μία από τις κορυφαίες μορφές στον κόσμο της τεχνητής νοημοσύνης. Η DeepMind, την οποία ίδρυσε πριν από περισσότερα από 10 χρόνια και εξαγόρασε η Google το 2014 έχει αποτελέσει βασικό μοχλό για την Alphabet, τη μητρική εταιρεία της Google.Τον Νοέμβριο η Google παρουσίασε το Gemini 3, το πιο πρόσφατο μοντέλο της AI, το οποίο έτυχε θετικής υποδοχής από χρήστες και αγορές, καθώς ο τεχνολογικός κολοσσός επιδίωξε να καθησυχάσει τις ανησυχίες ότι υστερεί έναντι ανταγωνιστών όπως η OpenAI. Πριν από λίγες μέρες η Apple ανακοίνωσε ότι θα χρησιμοποιήσει το Gemini στα προϊόντα της δίνοντας ψήφο εμπιστοσύνης σε αυτή την τεχνολογία έναντι αυτής της OpenAI δημιουργού του ChatGPT. https://www.naftemporiki.gr/techscience/2059928/ntemis-chasampis-i-kina-vrisketai-molis-ligoys-mines-piso-apo-tis-ipa-sti-technologia-technitis-noimosynis/ Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο. Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.
Δροσος Γεωργιος Δημοσιεύτηκε Ιανουάριος 21 Συγγραφέας Δημοσιεύτηκε Ιανουάριος 21 Deutsche Bank: «Ο μήνας του μέλιτος για τη τεχνητή νοημοσύνη έλαβε τέλος» Ο γερμανικός τραπεζικός κολοσσός κάνει λόγο για σύγκρουση προσδοκιών και διαθέσιμων υποδομών. Το 2026 πιθανότατα θα είναι μια δύσκολη χρονιά για την τεχνητή νοημοσύνη προειδοποιούν αναλυτές της Deutsche Bank καθώς οι προσδοκίες συγκρούονται με τα πρακτικά όρια, τους περιορισμούς στις υποδομές και την αυξανόμενη πολιτική και κοινωνική αντίδραση.«Ο μήνας του μέλιτος για την AI έχει τελειώσει», ανέφεραν σε έκθεση τους οι αναλυτές Άντριαν Κοξ και Στεφάν Αμπρουντάν βασίζοντας την εκτίμησή τους γύρω από τρία συγκλίνοντα θέματα. Απογοήτευση: η ομορφιά είναι στο μάτι αυτού που βλέπει την τεχνητή νοημοσύνη Παρότι η γενετική τεχνητή νοημοσύνη παραμένει κατ’ αρχήν μετασχηματιστική, το χάσμα ανάμεσα στις υποσχέσεις και τον πραγματικό αντίκτυπο γίνεται όλο και πιο ορατό καθώς τα πιλοτικά έργα περνούν στην παραγωγή, σημειώνουν οι αναλυτές. Οι επιχειρησιακοί χρήστες έρχονται όλο και περισσότερο αντιμέτωποι με περιορισμούς στην ακρίβεια, με τη δυσκολία εφαρμογής της AI σε «ακατάστατα» και απρόβλεπτα περιβάλλοντα καθώς και με το γεγονός ότι συχνά δεν είναι ακόμη φθηνότερη από την ανθρώπινη εργασία.Παρότι η τεχνολογία βελτιώνεται γρήγορα σε τομείς όπως ο προγραμματισμός, τα οφέλη «είναι πιο ορατά στη Σίλικον Βάλει και σε έμπειρους πρώιμους χρήστες που ασχολούνται με προσωπικά, ad hoc έργα, παρά στον μέσο διευθύνοντα σύμβουλο που θέλει να δει ουσιαστική δημιουργία εσόδων ή συστημικές λειτουργικές λύσεις» σημειώνουν.Παρά τους τολμηρούς ισχυρισμούς ότι η AI περνά «από το να μιλά στο να πράττει» για τους περισσότερους χρήστες παραμένει περισσότερο σταδιακή παρά επαναστατική «λιγότερο σαν τη μετάβαση από το άλογο στο τρακτέρ και περισσότερο σαν την αναβάθμιση σε μια πιο άνετη σέλα».Οι αναλυτές προειδοποιούν επίσης ότι η αισιοδοξία γύρω από την AI έχει γίνει βασικός πυλώνας της πρόσφατης οικονομικής ανάπτυξης και των εταιρικών κερδών στις ΗΠΑ και ότι οποιαδήποτε αναθεώρηση των προσδοκιών για την παραγωγικότητα θα μπορούσε να επηρεάσει ευρύτερα τις αγορές. Οι δύο αναλυτές υπενθυμίζουν την προειδοποίηση του ΔΝΤ ότι μια υποχώρηση των επενδύσεων στην AI θα μπορούσε να «προκαλέσει απότομη διόρθωση στις χρηματοπιστωτικές αγορές», η οποία θα επεκτεινόταν πέρα από τις εταιρείες που συνδέονται άμεσα με την AI. Αποδιοργάνωση: Τεχνητή νοημοσύνη στο μάτι της καταιγίδας Το δεύτερο θέμα αφορά τις αυξανόμενες πιέσεις ανάμεσα στη ραγδαία ζήτηση και τη περιορισμένη δυναμικότητα. Η Deutsche Bank σημειώνει ότι η τεχνητή νοημοσύνη βασίζεται σε μία από τις πιο σύνθετες εφοδιαστικές αλυσίδες που έχουν δημιουργηθεί ποτέ, καθιστώντας τις εφαρμογές της ευάλωτες σε «στενά σημεία» σε εξαρτήματα, ενέργεια, ανθρώπινο δυναμικό και υποδομές δικτύων.Η ζήτηση από τους hyperscalers παραμένει ισχυρή και οι επενδύσεις συνεχίζουν να αυξάνονται, υποστηριζόμενες από ισχυρές ταμειακές ροές και εύκολη πρόσβαση σε δανεισμό. Το σημείωμα επισημαίνει τον τεράστιο όγκο κεφαλαίων που κατευθύνονται σε ιδιωτικές εταιρείες AI, με γύρους χρηματοδότησης-ρεκόρ και αποτιμήσεις που υπογραμμίζουν πόσο κεφαλαιοβόρος έχει γίνει ο κλάδος την ώρα που οι προσδοκίες των επενδυτών για αποδόσεις αυξάνονται.Ταυτόχρονα, οι ελλείψεις σε μνήμη υψηλής ευρυζωνικότητας (HBM) οι πιέσεις στην παροχή ηλεκτρικής ενέργειας και νερού, καθώς και οι γεωπολιτικοί κίνδυνοι, δημιουργούν σημεία ευθραυστότητας. Οι αναλυτές χαρακτηρίζουν το 2026 κρίσιμη χρονιά για τους ανεξάρτητους δημιουργούς μοντέλων AI προειδοποιώντας ότι οι επενδυτές θα απαιτήσουν ολοένα και περισσότερο βιώσιμα επιχειρηματικά μοντέλα, καθώς οι χρηματοδοτικές ανάγκες αυξάνονται και οι ζημίες παραμένουν μεγάλες.«Αυτή η χρονιά μπορεί να είναι καθοριστική για τους αυτόνομους δημιουργούς μοντέλων AI. Η OpenAI είναι ιδιαίτερα εκτεθειμένη και ενδέχεται να διατρέχει τον μεγαλύτερο κίνδυνο, καθώς φαίνεται να μην έχει ακόμη βρει ένα λειτουργικό επιχειρηματικό μοντέλο για να καλύψει την αναφερόμενη καύση μετρητών ύψους 9 δισ. δολαρίων πέρυσι και πιθανώς 17 δισ. δολαρίων φέτος», γράφουν. Δυσπιστία: H AI δεν μπορεί να ικανοποιήσει Η τράπεζα αναμένει ότι το άγχος γύρω από την AI θα ενταθεί, περνώντας από μια υποβόσκουσα ανησυχία σε κεντρικό πολιτικό και κοινωνικό ζήτημα. Οι αγωγές, οι ρυθμιστικές παρεμβάσεις και η δημόσια αντίδραση αναμένεται να αυξηθούν, καλύπτοντας θέματα πνευματικών δικαιωμάτων, ιδιωτικότητας, επέκτασης data centers και φόβους για απώλεια θέσεων εργασίας.Επιπλέον, οι αναλυτές επισημαίνουν την αυξανόμενη ευαισθησία γύρω από τις επιπτώσεις στην απασχόληση, την εθνική ασφάλεια και την αντίληψη ενός αγώνα δρόμου στην AI μεταξύ ΗΠΑ και Κίνας. https://www.naftemporiki.gr/techscience/2061529/deutsche-bank-o-minas-toy-melitos-gia-ti-techniti-noimosyni-elave-telos/ Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο. Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.
Δροσος Γεωργιος Δημοσιεύτηκε χθες στις 05:27 PM Συγγραφέας Δημοσιεύτηκε χθες στις 05:27 PM «Η τεχνητή νοημοσύνη θέτει σε δοκιμασία το ανθρώπινο είδος» λέει ο επικεφαλής της Anthropic. Ένα από τα πιο εξέχοντα στελέχη της βιομηχανίας ΑΙ καταθέτει τις ανησυχίες του για το παρόν και μέλλον της ανθρωπότητας στο νέο τεχνολογικό περιβάλλον που διαμορφώνεται. Η ανθρωπότητα εισέρχεται σε μια φάση ανάπτυξης της τεχνητής νοημοσύνης που θα «δοκιμάσει το ποιοι είμαστε ως είδος», δήλωσε ο επικεφαλής της δυναμικά ανερχόμενης νεοφυούς εταιρείας τεχνητής νοημοσύνης Anthropic υποστηρίζοντας ότι ο κόσμος πρέπει να «ξυπνήσει» απέναντι στους κινδύνους.Ο Ντάριο Αμοντέι συνιδρυτής και διευθύνων σύμβουλος της εταιρείας πίσω από το δημοφιλές chatbot Claude εξέφρασε τους φόβους του σε ένα δοκίμιο 19,000 λέξεων με τίτλο «Η εφηβεία της τεχνολογίας».Περιγράφοντας την άφιξη εξαιρετικά ισχυρών συστημάτων τεχνητής νοημοσύνης ως πιθανώς άμεση, έγραψε: «Πιστεύω ότι εισερχόμαστε σε μια τελετή μετάβασης, ταραχώδη αλλά αναπόφευκτη, η οποία θα δοκιμάσει το ποιοι είμαστε ως είδος». Ο Αμοντέι πρόσθεσε: «Η ανθρωπότητα πρόκειται να λάβει μια σχεδόν αδιανόητη δύναμη και είναι βαθιά ασαφές αν τα κοινωνικά, πολιτικά και τεχνολογικά μας συστήματα διαθέτουν την ωριμότητα για να τη διαχειριστούν».Ο επιχειρηματίας της τεχνολογίας, του οποίου η εταιρεία φέρεται να αποτιμάται στα 350 δισεκατομμύρια δολάρια, δήλωσε ότι το δοκίμιό του ήταν μια προσπάθεια να «ταρακουνήσει τον κόσμο» καθώς υπάρχει ανάγκη να «ξυπνήσουμε» απέναντι στην ανάγκη δράσης για την ασφάλεια της τεχνητής νοημοσύνης.Ο Αμοντέι δημοσίευσε το κείμενο καθώς η βρετανική κυβέρνηση ανακοίνωσε ότι η Anthropic θα βοηθήσει στη δημιουργία chatbots που θα υποστηρίζουν άτομα που αναζητούν εργασία, προσφέροντας επαγγελματικές συμβουλές και βοήθεια στην εύρεση δουλειάς, στο πλαίσιο της ανάπτυξης ενός βοηθού τεχνητής νοημοσύνης για τις δημόσιες υπηρεσίες γενικότερα. Την προηγούμενη εβδομάδα, η εταιρεία δημοσίευσε ένα κείμενο 80 σελίδων που χαρακτήρισε ως «σύνταγμα» για το Claude, στο οποίο περιέγραφε πώς επιδιώκει να καταστήσει την τεχνητή της νοημοσύνη «γενικά ασφαλή και γενικά ηθική».Ο Αμοντέι συνίδρυσε την Anthropic το 2021 μαζί με άλλα πρώην στελέχη της OpenAI, της εταιρείας που ανέπτυξε το ChatGPT. Θεωρείται εξέχουσα φωνή υπέρ της διαδικτυακής ασφάλειας και είναι γνωστός για τις συνεχείς προειδοποιήσεις του σχετικά με τους κινδύνους της ανεξέλεγκτης ανάπτυξης της τεχνητής νοημοσύνης. Έγραψε ότι ο κόσμος βρισκόταν «σημαντικά πιο κοντά σε πραγματικό κίνδυνο» το 2026 απ’ ό,τι το 2023, όταν η συζήτηση για τον υπαρξιακό κίνδυνο της τεχνητής νοημοσύνης ανέβηκε στην κορυφή της πολιτικής ατζέντας.Αναφέρθηκε επίσης στη διαμάχη γύρω από πορνογραφικά deepfakes που δημιουργήθηκαν από το σύστημα Grok AI της εταιρείας τεχνητής νοημοσύνης του Ελον Μασκ και πλημμύρισαν την πλατφόρμα κοινωνικής δικτύωσης X τα Χριστούγεννα και την Πρωτοχρονιά, συμπεριλαμβανομένων προειδοποιήσεων ότι το chatbot παρήγαγε υλικό σεξουαλικής κακοποίησης παιδιών.«Ορισμένες εταιρείες τεχνητής νοημοσύνης έχουν δείξει μια ανησυχητική αμέλεια απέναντι στη σεξουαλικοποίηση παιδιών στα σημερινά μοντέλα, γεγονός που με κάνει να αμφιβάλλω αν θα δείξουν είτε τη διάθεση είτε την ικανότητα να αντιμετωπίσουν κινδύνους αυτονομίας σε μελλοντικά μοντέλα» λέει ο Αμοντέι. Το Νόμπελ Ο διευθύνων σύμβουλος της Anthropic εκτιμά ότι ισχυρά συστήματα τεχνητής νοημοσύνης τα οποία θα μπορούσαν να κατασκευάζουν αυτόνομα τα δικά τους συστήματα ενδέχεται να απέχουν μόλις ένα έως δύο χρόνια.Όρισε την «ισχυρή τεχνητή νοημοσύνη» ως ένα μοντέλο πιο έξυπνο από έναν βραβευμένο με Νόμπελ σε τομείς όπως η βιολογία, τα μαθηματικά, η μηχανική και η συγγραφή. Ένα τέτοιο σύστημα θα μπορούσε να δίνει ή να λαμβάνει οδηγίες από ανθρώπους και, παρότι «ζει» σε μια οθόνη υπολογιστή, θα μπορούσε να ελέγχει ρομπότ και ακόμη και να τα σχεδιάζει για δική του χρήση.Παρότι αναγνώρισε ότι τα ισχυρά συστήματα τεχνητής νοημοσύνης μπορεί να βρίσκονται «σημαντικά πιο μακριά χρονικά» από το πλαίσιο των δύο ετών, ο Αμοντέι είπε ότι η πρόσφατη ταχεία πρόοδος της τεχνολογίας πρέπει να ληφθεί σοβαρά υπόψη. «Αν η εκθετική εξέλιξη συνεχιστεί, κάτι που δεν είναι βέβαιο αλλά πλέον υποστηρίζεται από ένα ιστορικό δέκα ετών, τότε δεν είναι δυνατόν να περάσουν περισσότερα από λίγα χρόνια πριν η τεχνητή νοημοσύνη γίνει καλύτερη από τους ανθρώπους σχεδόν σε όλα» έγραψε.Πέρυσι ο Αμοντέι είχε προειδοποιήσει ότι η τεχνητή νοημοσύνη θα μπορούσε να μειώσει στο μισό τις θέσεις εργασίας εισαγωγικού επιπέδου σε λευκά κολάρα και να εκτοξεύσει τη συνολική ανεργία στο 20% μέσα στα επόμενα πέντε χρόνια. Στο δοκίμιό του ο Αμοντέι προειδοποίησε ότι το οικονομικό όφελος από την τεχνητή νοημοσύνη, όπως τα κέρδη παραγωγικότητας από την κατάργηση θέσεων εργασίας, θα μπορούσε να είναι τόσο μεγάλο ώστε κανείς να μη θελήσει να πατήσει φρένο.«Αυτή είναι η παγίδα: η τεχνητή νοημοσύνη είναι τόσο ισχυρή, ένα τόσο λαμπερό έπαθλο, ώστε είναι εξαιρετικά δύσκολο για τον ανθρώπινο πολιτισμό να της επιβάλει οποιουσδήποτε περιορισμούς» λέει ο Αμοντέι ωστόσο δήλωσε αισιόδοξος για μια θετική κατάληξη. «Πιστεύω ότι αν δράσουμε αποφασιστικά και προσεκτικά οι κίνδυνοι μπορούν να ξεπεραστούν, θα έλεγα μάλιστα ότι οι πιθανότητές μας είναι καλές. Και στην άλλη πλευρά υπάρχει ένας κόσμος απείρως καλύτερος. Αλλά πρέπει να κατανοήσουμε ότι πρόκειται για μια σοβαρή πρόκληση για τον ίδιο τον πολιτισμό μας». https://www.naftemporiki.gr/techscience/2064812/i-techniti-noimosyni-thetei-se-dokimasia-to-anthropino-eidos-leei-o-epikefalis-tis-anthropic/ Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο. Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.
Δροσος Γεωργιος Δημοσιεύτηκε 35 λεπτά πριν Συγγραφέας Δημοσιεύτηκε 35 λεπτά πριν Σύστημα τεχνητής νοημοσύνης προβλέπει καταρρακτώδεις βροχές και καταιγίδες ώρες πριν εκδηλωθούν. Θα βοηθήσει στην καλύτερη αντιμετώπιση ακραίων καιρικών φαινομένων. Είναι δεδομένο ότι έχουμε εισέλθει σε μια εποχή που ακραία καιρικά φαινόμενα κάνουν ολοένα και πιο συχνά και με ολοένα και μεγαλύτερη ένταση και διάρκεια την εμφάνιση τους. Μια νέα τεχνολογία μπορεί να βοηθήσει στην αποτελεσματικότερη αντιμετώπιση τους.Ομάδα επιστημόνων στο Χονγκ Κονγκ ανέπτυξε σύστημα τεχνητής νοημοσύνης για να προβλέπει τις καταιγίδες και τις καταρρακτώδεις βροχές έως και τέσσερις ώρες πριν να ξεσπάσουν σε σύγκριση με το σημερινό χρονικό διάστημα πρόβλεψης 20 λεπτών έως δύο ωρών.Το σύστημα αυτό θα βοηθήσει κυβερνήσεις και υπηρεσίες αντιμετώπισης εκτάκτων καταστάσεων να ανταποκρίνονται πιο αποτελεσματικά στα ολοένα και συχνότερα ακραία καιρικά φαινόμενα που συνδέονται με τις κλιματικές αλλαγές, ανακοίνωσε σήμερα η ομάδα αυτή του Πανεπιστημίου Επιστήμης και Τεχνολογίας του Χονγκ Κονγκ.«Ελπίζουμε να χρησιμοποιήσουμε την τεχνητή νοημοσύνη και τα δορυφορικά δεδομένα για να βελτιώσουμε την πρόβλεψη ακραίων καιρικών φαινομένων ώστε να μπορούμε να είμαστε καλύτερα προετοιμασμένοι. Το σύστημα αυτό έχει στόχο να προβλέπει τις ισχυρές βροχοπτώσεις», δήλωσε η Σου Χούι, η καθηγήτρια του τμήματος πολιτικών μηχανικών και μηχανικών περιβάλλοντος του πανεπιστημίου, η οποία ηγήθηκε του προγράμματοςΤο μοντέλο αυτό εφαρμόζει τεχνικές γενετικής τεχνητής νοημοσύνης εισάγοντας θόρυβο στα εκπαιδευτικά δεδομένα ώστε το σύστημα να μάθει να αντιστρέφει τη διαδικασία κατά την προσπάθεια να παραγάγει πιο ακριβείς προγνώσεις. Αυτό το οποίο αναπτύχθηκε σε συνεργασία με τις μετεωρολογικές αρχές της Κίνας ανανεώνει τις προγνώσεις κάθε 15 λεπτά και έχει ενισχύσει την ακρίβεια κατά περισσότερο από 15%, σύμφωνα με την ερευνητική ομάδα.Αυτού του είδους η δουλειά είναι κρίσιμης σημασίας καθώς ο αριθμός των τυφώνων και των καιρικών φαινομένων με υψηλά ποσοστά υγρασίας που αντιμετώπισαν το 2025 το Χονγκ Κονγκ και μεγάλο μέρος της νότιας Κίνας υπερέβη κατά πολύ τα φυσιολογικά για την εποχή επίπεδα δήλωσαν οι ερευνητές.Στην πόλη εκδόθηκε η πιο υψηλόβαθμη προειδοποίηση για καταιγίδα πέντε φορές πέρυσι και η δεύτερη πιο υψηλόβαθμη 16 φορές, καταγράφοντας νέα ρεκόρ, σύμφωνα με το παρατηρητήριό της. Η εθνική μετεωρολογική υπηρεσία της Κίνας και το Παρατηρητήριο του Χονγκ Κονγκ εργάζονται για την ενσωμάτωση του μοντέλου αυτού το οποίο ονομάστηκε Deep Diffusion Model Satellite Data (DDMS). https://www.naftemporiki.gr/techscience/2065361/systima-technitis-noimosynis-provlepei-katarraktodeis-vroches-kai-kataigides-ores-prin-ekdilothoyn/ Η DeepMind έφτιαξε εργαλείο ΑΙ που εντοπίζει τους γενετικούς παράγοντες ασθενειών ανοίγοντας δρόμο για νέες θεραπείες. Το σύστημα υποδεικνύει τους γονιδιακούς, βιολογικούς και κυτταρικούς μηχανισμούς που εμπλέκονται σε ασθένειες. Ερευνητές της DeepMind παρουσίασαν το πιο πρόσφατο εργαλείο τεχνητής νοημοσύνης τους και υποστηρίζουν ότι θα βοηθήσει τους επιστήμονες να εντοπίσουν τους γενετικούς παράγοντες που προκαλούν ασθένειες και τελικά να ανοίξει τον δρόμο για νέες θεραπείες.Το AlphaGenome προβλέπει πώς οι μεταλλάξεις παρεμβαίνουν στον τρόπο με τον οποίο ρυθμίζονται τα γονίδια, αλλάζοντας το πότε ενεργοποιούνται, σε ποια κύτταρα του σώματος και αν οι βιολογικοί τους «διακόπτες έντασης» είναι ρυθμισμένοι ψηλά ή χαμηλά.Οι περισσότερες κοινές ασθένειες που εμφανίζονται οικογενειακά, όπως οι καρδιοπάθειες και τα αυτοάνοσα νοσήματα, καθώς και τα προβλήματα ψυχικής υγείας, έχουν συνδεθεί με μεταλλάξεις που επηρεάζουν τη γονιδιακή ρύθμιση, όπως και πολλοί καρκίνοι. Ωστόσο ο εντοπισμός του ποιες ακριβώς γενετικές δυσλειτουργίες ευθύνονται δεν είναι καθόλου απλός.«Βλέπουμε το AlphaGenome ως ένα εργαλείο για την κατανόηση του τι κάνουν τα λειτουργικά στοιχεία του γονιδιώματος κάτι που ελπίζουμε ότι θα επιταχύνει τη βασική μας κατανόηση του κώδικα της ζωής» δήλωσε η Νατάσα Λατίσεβα ερευνήτρια της DeepMind.Το ανθρώπινο γονιδίωμα αποτελείται από περίπου 3 δισεκατομμύρια ζεύγη γραμμάτων, τα G, T, C και A που συνθέτουν τον κώδικα του DNA. Περίπου το 2% του γονιδιώματος δίνει στα κύτταρα οδηγίες για την παραγωγή πρωτεϊνών, των δομικών λίθων της ζωής. Το υπόλοιπο ρυθμίζει τη δραστηριότητα των γονιδίων μεταφέροντας τις κρίσιμες εντολές που καθορίζουν πού, πότε και σε ποιο βαθμό ενεργοποιείται κάθε γονίδιο.Οι ερευνητές εκπαίδευσαν το AlphaGenome σε δημόσιες βάσεις δεδομένων ανθρώπινης και ποντικής γενετικής επιτρέποντάς του να μάθει τις συνδέσεις μεταξύ μεταλλάξεων σε συγκεκριμένους ιστούς και της επίδρασής τους στη γονιδιακή ρύθμιση. Η τεχνητή νοημοσύνη μπορεί να αναλύει έως και 1 εκατομμύριο γράμματα DNA ταυτόχρονα και να προβλέπει πώς οι μεταλλάξεις θα επηρεάσουν διαφορετικές βιολογικές διεργασίες. Η χαρτογράφηση Η ομάδα της DeepMind, την οποία εξαγόρασε το 2014 η Google, πιστεύει ότι το εργαλείο θα βοηθήσει τους επιστήμονες να χαρτογραφήσουν ποια τμήματα του γενετικού κώδικα είναι πιο κρίσιμα για την ανάπτυξη συγκεκριμένων ιστών, όπως τα νευρικά και τα ηπατικά κύτταρα, και να εντοπίσουν τις πιο σημαντικές μεταλλάξεις που οδηγούν σε καρκίνο και άλλες ασθένειες. Θα μπορούσε επίσης να αποτελέσει τη βάση για νέες γονιδιακές θεραπείες, επιτρέποντας στους ερευνητές να σχεδιάζουν εντελώς νέες αλληλουχίες DNA, για παράδειγμα ώστε να ενεργοποιείται ένα συγκεκριμένο γονίδιο στα νευρικά κύτταρα αλλά όχι στα μυϊκά.«Το AlphaGenome μπορεί να εντοπίσει αν οι μεταλλάξεις επηρεάζουν τη ρύθμιση του γονιδιώματος, ποια γονίδια επηρεάζονται και με ποιον τρόπο, καθώς και σε ποια είδη κυττάρων. Στη συνέχεια θα μπορούσε να αναπτυχθεί ένα φάρμακο για να αντισταθμίσει αυτό το αποτέλεσμα. Τελικός μας στόχος είναι να έχουμε μοντέλα τόσο καλά ώστε να μη χρειάζεται να κάνουμε πείραμα για να επιβεβαιώσουμε τις προβλέψεις τους. Αν και το AlphaGenome αποτελεί μια σημαντική καινοτομία, η επίτευξη αυτού του στόχου θα απαιτήσει συνεχή προσπάθεια από την επιστημονική κοινότητα» αναφέρει ο Καρλ ντε Μπερ ερευνητής στο Πανεπιστήμιο της Βρετανικής Κολομβίας στον Καναδά που δεν συμμετείχε στη μελέτη.Ορισμένοι επιστήμονες έχουν ήδη αρχίσει να χρησιμοποιούν το AlphaGenome. Ο Μαρκ Μανσούρ κλινικός καθηγητής παιδιατρικής αιματολογίας και ογκολογίας στο UCL δήλωσε ότι σηματοδοτεί μια «ριζική αλλαγή» στο έργο του για τον εντοπισμό των γενετικών παραγόντων του καρκίνου.Ο Γκάρεθ Χοκς στατιστικός γενετιστής στο Πανεπιστήμιο του Εξετερ ανέφερε: «Το μη κωδικοποιητικό γονιδίωμα αποτελεί το 98% του γονιδιώματός μας των 3 δισεκατομμυρίων ζευγών βάσεων. Κατανοούμε σχετικά καλά το 2%, αλλά το γεγονός ότι έχουμε πλέον το AlphaGenome, το οποίο μπορεί να προβλέπει τι κάνει αυτή η άλλη περιοχή των 2,94 δισεκατομμυρίων ζευγών βάσεων, είναι ένα μεγάλο βήμα προς τα εμπρός για εμάς». https://www.naftemporiki.gr/techscience/2065346/i-deepmind-eftiaxe-ergaleio-ai-poy-entopizei-toys-genetikoys-paragontes-astheneion-anoigontas-dromo-gia-nees-therapeies/ Ο πλανήτης μας ειναι το λίκνο της ανθρωπότητας.Αλλα κανείς δεν περνάει ολη του τη ζωή στο λίκνο. Κονσταντίν Εντουάρντοβιτς Τσιολκόφσκι.
Προτεινόμενες αναρτήσεις
Δημιουργήστε έναν λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είσαι μέλος για να αφήσεις ένα σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε για έναν νέο λογαριασμό στην κοινότητά μας. Είναι εύκολο!.
Εγγραφή νέου λογαριασμούΣυνδεθείτε
Έχετε ήδη λογαριασμό? Συνδεθείτε εδώ.
Συνδεθείτε τώρα