«Εάν δεν είσαι ικανός να εκνευρίζεις κανέναν με τα γραπτά σου, τότε να εγκαταλείψεις το επάγγελμα»

ΩΡΑ ΕΛΛΑΔΟΣ

Επικοινωνία εδώ

Για σχόλια, καταγγελίες και επικοινωνία στο

ΚΑΤΗΓΟΡΙΕΣ ΘΕΜΑΤΩΝ

Ενημέρωση των αναγνωστών.

Προσοχή στις απάτες, η ΑΡΧΑΙΑ ΙΘΩΜΗ και ο ΚΩΝΣΤΑΝΤΙΝΟΣ ΚΑΝΕΛΛΟΠΟΥΛΟΣ δεν φέρει καμία ευθύνη για οποιαδήποτε συναλλαγή με κάρτες η άλλον τρόπω και άλλα στον όνομά της, Ή στο όνομα του κυρίου Γ. Θ, Χατζηθεοδωρου. Δεν έχουμε καμία χρηματική απαίτηση από τους αναγνώστες με οποιοδήποτε τρόπο.
Αγαπητοί αναγνώστες η ανθελληνική και βρόμικη google στην κορυφή της ιστοσελίδας όταν μπείτε, αναφέρει μη ασφαλής την ιστοσελίδα, ξέρετε γιατί;;; Διότι δεν της πληρώνω νταβατζιλίκι, κάθε φορά ανακαλύπτει νέα κόλπα να απειλή. Η ΑΡΧΑΙΑ ΙΘΩΜΗ σας εγγυάται, ότι δεν διατρέχετε κανένα κίνδυνο, διότι πληρώνω με στερήσεις το ισχυρότερο αντιβάριους της Eugene Kaspersky, όπως δηλώνει και ο Πρόεδρος και Διευθύνων Σύμβουλος της Kaspersky Lab "Πιστεύουμε ότι όλοι μας δικαιούμαστε να είμαστε ασφαλείς στο διαδίκτυο. Eugene Kaspersky

Ανακοίνωση

Τη λειτουργία μίας νέας γραμμής που αφορά τον κορωνοϊό ανακοίνωσε ο Εθνικός Οργανισμός Δημόσιας Υγείας. Ο Εθνικός Οργανισμός Δημόσιας Υγείας ανακοινώνει, ότι από σήμερα 07.03.2020 λειτουργεί η τηλεφωνική γραμμή 1135, η οποία επί 24ώρου βάσεως θα παρέχει πληροφορίες σχετικά με τον νέο κοροναϊό.

Πού μπορεί να απευθυνθεί μια γυναίκα που πέφτει θύμα ενδοοικογενειακής βίας;

«Μένουμε σπίτι θα πρέπει να σημαίνει πως μένουμε ασφαλείς και προστατευμένες. Για πολλές γυναίκες, όμως, σημαίνει το ακριβώς αντίθετο. Εάν υφίστασαι βία στο σπίτι, δεν είσαι μόνη. Είμαστε εδώ για σένα. Μένουμε σπίτι δεν σημαίνει ότι υπομένουμε τη βία. Μένουμε σπίτι δεν σημαίνει μένουμε σιωπηλές. Τηλεφώνησε στη γραμμή SOS 15900. Οι ψυχολόγοι και οι κοινωνικοί λειτουργοί της γραμμής θα είναι εκεί για σε ακούσουν και να σε συμβουλέψουν. Δεν μπορείς να μιλήσεις; Στείλε email στο sos15900@isotita.gr ή σε οποιοδήποτε από τα Συμβουλευτικά Κέντρα ” λέει σε ένα βίντεο που ανέβασε στο Instagram της η Ελεονώρα Μελέτη.

Προς ενημέρωση στους αναγνώστες. 4/8/2020

Η ΑΡΧΑΙΑ ΙΘΩΜΗ δεν ανάγκασε ποτέ κανένα να κάνει κάτι με παραπλανητικές μεθόδους, αλλά ούτε με οποιοδήποτε τρόπο. Ο γράφων είμαι ένας ανήσυχος ερευνητής της αλήθειας. Και αυτό το κάνω με νόμιμο τρόπο. Τι σημαίνει αυτό; ότι έχω μαζέψει πληροφορίες επιστημονικές και τις παρουσιάζω, ή αυτούσιες, ή σε άρθρο μου που έχει σχέση με αυτές τις πληροφορίες! Ποτέ δεν θεώρησα τους αναγνώστες μου ηλίθιους ή βλάκες και ότι μπορώ να τους επιβάλω την γνώμη μου. Αυτοί που λένε ότι κάποια ιστολόγια παρασέρνουν τον κόσμο να μην πειθαρχεί… Για ποιο κόσμο εννοούν;;; Δηλαδή εκ προοιμίου θεωρούν τον κόσμο βλάκα, ηλίθιο και θέλουν να τον προστατέψουν;;; Ο νόμος αυτό το λέει για τους ανώριμους ανήλικους. Για τους ενήλικους λέει ότι είναι υπεύθυνοι για ότι πράττουν. Στον ανήλικο χρειάζεται ένας διπλωματούχος ιδικός για να τον δασκαλέψει, καθηγητής, δάσκαλος. Στους ενήλικες δεν υπάρχει περιορισμός. Ποιος λέει και ποιος ακούει, διότι ο καθένας ενήλικος είναι υπεύθυνος και προς τους άλλους και προς τον εαυτό του.

Η ΒΟΥΛΗ ΤΩΝ ΕΛΛΗΝΩΝ

Θα γίνουν οι άνθρωποι προέκταση των μηχανών τους;

Οι υπάλληλοι της Google προσπάθησαν να μπλοκάρουν την κυκλοφορία του αντιπάλου του СhatGPT – μέσα

Θα γίνουν οι άνθρωποι προέκταση των μηχανών τους; 

Το ChatGPT μπορεί να έχει αμετάκλητες συνέπειες για τη μάθηση και τη λήψη αποφάσεων

Βασιζόμαστε ήδη σε ψηφιακά δεκανίκια σε πολλές πτυχές της ζωής μας – θα αναθέσουμε ακόμη και τις βασικές μας ικανότητες στην τεχνητή νοημοσύνη;

Η σύγχρονη τροχιά της ανθρωπότητας έχει καθοριστεί από πολλά σημεία καμπής.

Η εφεύρεση του ηλεκτρισμού, του λαμπτήρα, του τηλεγραφικού συστήματος, του υπολογιστή και του Διαδικτύου, μεταξύ άλλων, σηματοδοτούν νέα μη αναστρέψιμα ορόσημα στο modus vivendi μας.

Η πρόσφατη εισαγωγή του ChatGPT μπορεί, ωστόσο, να αποδειχθεί κάτι περισσότερο από ένα σημείο καμπής. Αυτό, και τα μοντέλα τεχνητής νοημοσύνης όπως αυτό, μπορεί να διαταράξουν μόνιμα τον τρόπο ζωής μας. παρά   τα bloopers τους  και  τις εκρήξεις των Wokist .

Το Chat GPT είναι πλέον η ταχύτερα αναπτυσσόμενη εφαρμογή καταναλωτών στην ιστορία. Μέσα σε δύο μήνες από την κυκλοφορία του, τον Νοέμβριο του 2022, το ChatGPT κατάφερε να συγκεντρώσει περισσότερους από 100 εκατομμύρια χρήστες. Ο προγραμματιστής του OpenAI, ο οποίος ξεκίνησε με 375 υπαλλήλους και χαμηλά έσοδα, αποτιμάται τώρα στα  30 δισεκατομμύρια δολάρια .

Πώς λειτουργεί; Το ChatGPT συγκεντρώνει δεδομένα που προέρχονται από το διαδίκτυο (αν και δεν είναι απευθείας συνδεδεμένο στο διαδίκτυο σε πραγματικό χρόνο) και συνθέτει απαντήσεις σε ένα ερώτημα μέσα σε δευτερόλεπτα. Αυτή τη στιγμή είναι το πιο ευέλικτο και σταθερό από τα νέα μοντέλα μεγάλων γλωσσών που τροφοδοτούνται από AI. Μπορεί να συνθέτει μουσικές νότες, να γράφει κώδικα λογισμικού, να λύνει μαθηματικές εξισώσεις, να γράφει μυθιστορήματα, δοκίμια και διατριβές, μεταξύ πολλών άλλων εργασιών.

Μάθιου Μάαβακ

Του Δρ. Mathew Maavak , Μαλαισιανού εμπειρογνώμονα για την προοπτική και τη διακυβέρνηση κινδύνου.

@MathewMaavak@Maavak

Θα γίνουν οι άνθρωποι προέκταση των μηχανών τους;  Το ChatGPT μπορεί να έχει αμετάκλητες συνέπειες για τη μάθηση και τη λήψη αποφάσεων

Μπορεί να χρησιμοποιηθεί από επιστήμονες για να μεταφράσουν τα πρωτότυπα έργα τους – γραμμένα στη μητρική τους γλώσσα – στα αγγλικά. Καθώς τα εργαλεία τεχνητής νοημοσύνης όπως το ChatGPT εξελίσσονται, ενδέχεται να υποκαταστήσουν την ανθρώπινη δραστηριότητα σε ένα ευρύ, αλλά ανυπολόγιστο φάσμα. Εκατοντάδες εκατομμύρια θέσεις εργασίας μπορεί να διακυβεύονται.

Οι επιστήμονες χρησιμοποιούν εγκεφαλικά κύτταρα για να δημιουργήσουν AI

 Οι επιστήμονες χρησιμοποιούν εγκεφαλικά κύτταρα για να δημιουργήσουν AI

Ωστόσο, ο πιο άμεσος αντίκτυπός του θα είναι στον τομέα της ανθρώπινης μάθησης και λήψης αποφάσεων.

Ανθρώπινη μάθηση

Η ανθρώπινη μάθηση είναι μια δια βίου διαδικασία που διαμορφώνεται από μυριάδες παράγοντες. Αυτά περιλαμβάνουν (αλλά δεν περιορίζονται σε) εμπειρία, ένστικτο, αλληλεπιδράσεις, λάθη (και διορθώσεις), ενδοσκόπηση, προσωπική αγωνία, τόλμη, κηδεμονία, δεδομένα κειμένου και ατομική ψυχή. Οι περισσότερες από αυτές τις προϋποθέσεις είναι ξένες προς το ChatGPT. Το αξίωμα « χωρίς πόνο, κανένα κέρδος» της ανθρώπινης μάθησης και ανάπτυξης δεν ισχύει για αυτό.

Τα εργαλεία τεχνητής νοημοσύνης δεν επηρεάζονται επίσης από ανθρώπινους περιορισμούς, όπως χρονικοί περιορισμοί, κούραση, « αργίες » και παθήσεις. Αυτοί οι περιορισμοί είναι που μπορεί τελικά να αναγκάσουν τους ανθρώπους να αναθέσουν την υπαρξιακή τους απαίτηση να σκέφτονται και να μαθαίνουν στις μηχανές. Η αδυσώπητη ψηφιοποίηση μας έχει ήδη κάνει να γνωρίζουμε πού ή πώς να αναζητούμε πληροφορίες αντί να μαθαίνουμε πώς να διατηρούμε τις ίδιες πληροφορίες.

Ως αποτέλεσμα, ένα ψηφιακό δεκανίκι είναι πλέον απαραίτητο για την πλοήγηση σε δρόμους (π.χ. Waze, Google Maps), το μαγείρεμα (μαγειρικά κανάλια βίντεο), την επισκευή συσκευών (κανάλια DIY) και μια σειρά από άλλες κοσμικές δραστηριότητες. Οι καθημερινές μας εργασίες γίνονται γρήγορα πιο μηχανικές, παραγκωνίζοντας την ικανότητά μας να δημιουργήσουμε κάτι νέο ή να αλλάζει το παιχνίδι. Γινόμαστε προεκτάσεις των μηχανών μας αντί για το αντίστροφο. Ως αποτέλεσμα, η ανθρωπότητα αντιμετωπίζει μια εποχή συλλογικής αηδίας και συμμόρφωσης.

Δεν υπάρχει καλύτερος τρόπος για να μετρήσουμε πώς τα εργαλεία τεχνητής νοημοσύνης μπορούν να επηρεάσουν τις ικανότητές μας σκέψης και μάθησης από το να παρατηρήσουμε τον αντίκτυπο του ChatGPT στον παγκόσμιο εκπαιδευτικό τομέα. Οι μαθητές και οι εκπαιδευτικοί χρησιμοποιούν τώρα το ChatGPT ως συμπλήρωμα, εργαλείο εξαπάτησης ή ως ψηφιακό δεκανίκι

Μια πρόσφατη  έρευνα από το Walton Family Foundation και το Impact Research διαπίστωσε ότι οι περισσότεροι δάσκαλοι (51%) και πολλοί μαθητές χρησιμοποιούν ήδη το ChatGPT στα σχολεία. Μια άλλη έρευνα στην οποία συμμετείχαν  1.000 κολέγια των ΗΠΑ διαπίστωσε ότι το 30% των μαθητών χρησιμοποιούσε το ChatGPT για γραπτές εργασίες, με το 60% από αυτούς να το χρησιμοποιούν σε « περισσότερες από τις μισές εργασίες τους». Το ChatGPT έχει περάσει πολλές  εξετάσεις υψηλού επιπέδου , συμπεριλαμβανομένης της εξέτασης Wharton MBA, των εξετάσεων ιατρικής αδειοδότησης των ΗΠΑ, αρκετές εξετάσεις νομικής και έναν τελικό στην Ιατρική Σχολή του Στάνφορντ.

Οι χαρτοβιομηχανίες μπορούν επίσης να χρησιμοποιούν το ChatGPT για την κατασκευή επιστημονικών άρθρων και εκθέσεων. Οι ερευνητές που χρησιμοποιούν τα δεδομένα της (θυμηθείτε ότι η τεχνητή νοημοσύνη «μπορεί περιστασιακά να παράγει λανθασμένες απαντήσεις» ) ή που σκόπιμα παραποιούν την ερευνητική διαδικασία μέσω γενετικής τεχνητής νοημοσύνης, ενδέχεται να καταλήξουν να προωθούν πολιτικές και προϊόντα που είναι επιζήμια για την κοινωνία. Ο κόσμος δεν μπορεί να αντέξει άλλη μια κορωνοψύχωση!

Οι κοσμήτορες των πανεπιστημίων χρησιμοποιούν το ChatGPT για να παρηγορήσουν τους φοιτητές

 Οι κοσμήτορες των πανεπιστημίων χρησιμοποιούν το ChatGPT για να παρηγορήσουν τους φοιτητές

Συνολικά, τόσο οι μαθητές όσο και οι δάσκαλοι εκφοβίζονται όλο και περισσότερο από την Παντοδύναμη ΤΝ. Η τεχνητή νοημοσύνη ανεβάζει τον πήχη για φοιτητές, καθηγητές και μια ποικιλία επαγγελματιών. Η διαλογή των αυθεντικών αντικειμένων γίνεται επίσης όλο και πιο δύσκολη. Όπως  σημείωσε πρόσφατα ο Christopher Kanan , Αναπληρωτής Καθηγητής Επιστήμης Υπολογιστών στο Πανεπιστήμιο του Ρότσεστερ: «Απλώς γίνεται πιο δύσκολο να ξεχωρίσεις ποιος ξέρει τι και ποιος λαμβάνει βοήθεια από πράγματα όπως το ChatGPT». Ως αποτέλεσμα, μερικά σχολεία στη  Νέα Υόρκη ,  το Χονγκ Κονγκ,  τη Μπανγκαλόρ  και αλλού έχουν απαγορεύσει στους μαθητές να χρησιμοποιούν το ChatGPT στις εργασίες τους λόγω ανησυχιών για λογοκλοπή, εξαπάτηση και παραπληροφόρηση.

Ενώ το ChatGPT είναι ένα εξαιρετικό εργαλείο για τη μελέτη πολύπλοκων εννοιών και τμημάτων  ενσωμάτωσης γνώσης , στην πραγματικότητα, μπορεί να μετατρέψει τους περισσότερους χρήστες σε υπάκουους καταναλωτές δεδομένων που δημιουργούνται από AI. Η παρατεταμένη ψηφιακά διαμεσολαβούμενη παθητικότητα ατροφεί τη σκεπτόμενη ικανότητα.

Ένα άλλο μειονέκτημα του ChatGPT είναι η δυνατότητά του να διευρύνει το πολυσυζητημένο ψηφιακό χάσμα. Οι αιτήσεις για θέσεις εργασίας, προαγωγές, υποτροφίες κ.λπ. θα ευνοήσουν συντριπτικά τους ψηφιακούς «έχοντες» έναντι των ψηφιακών « δεν έχουν », ειδικά όταν απαιτούνται τέλη συνδρομής για την πρόσβαση.

Οι εκπαιδευτικοί αυτή τη στιγμή δεν είναι σε θέση να καθορίσουν τα ηθικά όρια του ChatGPT και επί του παρόντος υιοθετούν μια στάση αναμονής. Το ίδιο το ηθικό πλαίσιο μπορεί να γραφτεί από ή με τη βοήθεια εργαλείων όπως το ίδιο το ChatGPT. Η Aini Suzana Ariffin, Αναπληρώτρια Καθηγήτρια Πολιτικών Σπουδών στο Universiti Teknologi Malaysia, είναι πεπεισμένη ότι οι εκπαιδευτικοί δεν χρειάζεται να ανησυχούν. «Ένα ηθικό πλαίσιο για εργαλεία παραγωγής τεχνητής νοημοσύνης όπως το ChatGPT θα ξεκαθαρίσει τι αυξάνει τη διαδικασία μάθησης και τι την εμποδίζει. Αυτό μπορεί να πάρει χρόνο και θα απαιτήσει πολλή συζήτηση, αλλά καλύτερα να ξεκινήσουμε τώρα».

Ανθρώπινη λήψη αποφάσεων

Η κυβέρνηση της Σιγκαπούρης ανακοίνωσε πρόσφατα ότι οι δημόσιοι υπάλληλοί της θα αρχίσουν να χρησιμοποιούν το ChatGPT για να μειώσουν τον φόρτο εργασίας τους. Αυτό είναι λογικό καθώς επαναλαμβανόμενες ή κοσμικές εργασίες μπορούν να επιταχυνθούν με εργαλεία τεχνητής νοημοσύνης. Ωστόσο, καθώς τα εργαλεία παραγωγής τεχνητής νοημοσύνης γίνονται εκθετικά πιο έξυπνα και αποτελεσματικά, το σύμπλεγμα διακυβέρνησης μπορεί σταδιακά να σφετεριστεί από μηχανές. Αυτή η αναδυόμενη μορφή κοινωνικής τάξης ονομάζεται « αλγοκρατία ». όπου οι αλγόριθμοι, ειδικά η τεχνητή νοημοσύνη και το blockchain, εφαρμόζονται σε όλο το φάσμα της κυβέρνησης. Η αλγοκρατία συνεπάγεται αναπόφευκτα προγνωστική διακυβέρνηση. Η αστυνομία του Βερολίνου έχει ήδη ενσωματώσει μια εμβρυϊκή μορφή αλγοκρατίας στο προγνωστικό της σύστημα αστυνόμευσης. Αντιμετωπίζουμε  έκθεση μειοψηφίας;κοινωνία στο εγγύς μέλλον;

Θα αντικαταστήσει το ChatGPT τους πολιτικούς σχολιαστές;

 Θα αντικαταστήσει το ChatGPT τους πολιτικούς σχολιαστές;

Το ChatGPT επιταχύνει επίσης τη ροή πληροφοριών στα κορυφαία επίπεδα λήψης αποφάσεων μιας κυβέρνησης ή οργανισμού – παρακάμπτοντας τους παραδοσιακούς ρόλους του θυρωρού των γραφειοκρατιών στα ενδιάμεσα επίπεδα. Αν και αυτό μπορεί να προαναγγελθεί ως μια ευπρόσδεκτη εξέλιξη κατά της γραφειοκρατίας, η έλλειψη παραδοσιακών ελέγχων και ισορροπιών μπορεί να οδηγήσει σε επιτακτικές αποφάσεις με θλιβερές κοινωνικοοικονομικές επιπτώσεις. Φανταστείτε να μεταμοσχεύετε μια τέτοια αλγοκρατική διαδικασία στην υποδομή πυρηνικών όπλων μιας στρατιωτικής υπερδύναμης.

Το ChatGPT διατρέχει επίσης τον κίνδυνο παραβίασης του απορρήτου και διαρροής προσωπικών δεδομένων σε τομείς όπως ο τραπεζικός τομέας και η υγειονομική περίθαλψη. Η αποτελεσματικότητα των εργαλείων παραγωγής τεχνητής νοημοσύνης τροφοδοτείται από έναν συνεχώς αυξανόμενο όγκο δεδομένων που επανέρχονται συνεχώς στα νευρωνικά τους δίκτυα. Αυτή η αναζήτηση της ακρίβειας, της αποτελεσματικότητας και της ταχύτητας μπορεί να οδηγήσει σε παραβίαση των ιδιωτικών δεδομένων ως μέρος της διαδικασίας μηχανικής εκμάθησης.

Στον τομέα της υγειονομικής περίθαλψης,  η ενημερωμένη συναίνεση για υγειονομική περίθαλψη υποβοηθούμενη από τεχνητή νοημοσύνη μπορεί να περιοριστεί, καθώς οι ασθενείς μπορεί είτε να μην καταλαβαίνουν σε τι συναινούν είτε να εμπιστεύονται υπερβολικά ένα « έξυπνο και αμερόληπτο» σύστημα που βασίζεται σε μηχανήματα. Γίνεται πιο δυσοίωνο όταν η διαλογή πρέπει να χρησιμοποιείται σε κρίσιμες καταστάσεις. Παραδοσιακά, η διαλογή καθορίζεται από την ακεραιότητα και τις δεξιότητες του ιατρικού προσωπικού που είναι παρόν καθώς και από τους διαθέσιμους πόρους επί τόπου . Ωστόσο, ένας αλγόριθμος μπορεί να κανονίσει απαθή διαλογή με βάση την «αξία του ασθενούς για την κοινωνία» . προσδόκιμο ζωής που προκύπτει από δεδομένα· και το κόστος που σχετίζεται με τη διάσωση της ζωής του ασθενούς.

Στο τέλος της ημέρας, ένα πλαίσιο ηθικής τεχνητής νοημοσύνης θα τειχιστεί από τους Tech Titans που μπορούν να καθορίσουν τον σχεδιασμό, τις παραμέτρους και τους στόχους των εργαλείων τεχνητής νοημοσύνης που δημιουργούνται; Ή μήπως οι εκλεγμένοι ηγέτες μας θα προσπαθήσουν να επιδιώξουν μια συνεργική συνύπαρξη μεταξύ της τεχνητής νοημοσύνης και των ανθρώπων;

Οι υπάλληλοι της Google προσπάθησαν να μπλοκάρουν την κυκλοφορία του αντιπάλου του СhatGPT – μέσα

Δύο αναθεωρητές τεχνητής νοημοσύνης προσπάθησαν να κρούουν τον κώδωνα του κινδύνου ότι ο Μπαρντ εξέπεμπε ανακριβείς και επιβλαβείς ισχυρισμούς

Οι υπάλληλοι της Google προσπάθησαν να μπλοκάρουν την κυκλοφορία του αντιπάλου του СhatGPT – μέσα

Δύο υπάλληλοι στο τμήμα Υπεύθυνης Καινοτομίας της Google προσπάθησαν και απέτυχαν να εμποδίσουν την κυκλοφορία του chatbot AI Bard τον περασμένο μήνα, προειδοποιώντας ότι ήταν επιρρεπής σε «ανακριβείς και επικίνδυνες δηλώσεις», αποκάλυψαν την Παρασκευή οι New York Times, επικαλούμενοι γνώστες της διαδικασίας.

Οι ανησυχούντες αναθεωρητές προϊόντων είχαν ήδη σημειώσει προβλήματα με τα μοντέλα μεγάλων γλωσσών AI, όπως το Bard και τον μεγάλο ανταγωνιστή του ChatGPT, όταν ο επικεφαλής δικηγόρος της Google συναντήθηκε με στελέχη έρευνας και ασφάλειας για να τους ενημερώσει ότι η εταιρεία έδινε προτεραιότητα στην τεχνητή νοημοσύνη έναντι όλων των άλλων.  

Οι ανησυχίες του ζευγαριού σχετικά με το chatbot που παράγει ψευδείς πληροφορίες, βλάπτει χρήστες που δεσμεύονται συναισθηματικά ή ακόμη και εξαπολύει «βία που διευκολύνεται από την τεχνολογία» μέσω συνθετικής μαζικής παρενόχλησης υποβαθμίστηκε στη συνέχεια από την επόπτη του Responsible Innovation Jen Gennai, ισχυρίστηκαν οι πηγές. Ενώ οι αναθεωρητές είχαν παροτρύνει την Google να περιμένει πριν απελευθερώσει τον Bard, ο Gennai φέρεται να επεξεργάστηκε την αναφορά τους για να αφαιρέσει εντελώς αυτήν τη σύσταση. 

Θα γίνουν οι άνθρωποι προέκταση των μηχανών τους;  Το ChatGPT μπορεί να έχει αμετάκλητες συνέπειες για τη μάθηση και τη λήψη αποφάσεων

 Θα γίνουν οι άνθρωποι προέκταση των μηχανών τους; Το ChatGPT μπορεί να έχει αμετάκλητες συνέπειες για τη μάθηση και τη λήψη αποφάσεων

Η Gennai υπερασπίστηκε τις ενέργειές της στους Times, επισημαίνοντας ότι οι κριτικοί δεν έπρεπε να μοιραστούν τις απόψεις τους σχετικά με το αν έπρεπε να προχωρήσουν, καθώς ο Bard ήταν απλώς ένα πείραμα. Ισχυρίστηκε ότι βελτίωσε την έκθεση, έχοντας «διορθώσει ανακριβείς υποθέσεις και στην πραγματικότητα πρόσθεσε περισσότερους κινδύνους και βλάβες που χρειάζονταν προσοχή». Αυτό έκανε το τελικό προϊόν πιο ασφαλές, επέμεινε.

Η Google πιστώνει την Gennai για την απόφασή της να κυκλοφορήσει το Bard ως «περιορισμένο πείραμα», αλλά το chatbot εξακολουθεί να είναι έτοιμο να ενσωματωθεί πλήρως στη μηχανή αναζήτησης της Google που κυριαρχεί στην αγορά «σύντομα», σύμφωνα με τον ιστότοπο της Google. 

Η Google έχει καταπνίξει τις εξεγέρσεις των εργαζομένων για το ζήτημα της τεχνητής νοημοσύνης στο παρελθόν. Πέρυσι, απέλυσε τον Blake Lemoine αφού ισχυρίστηκε ότι ο προκάτοχος του Bard LaMDA (Language Model for Dialogue Applications) είχε γίνει ευαίσθητος, ενώ ο ερευνητής El Mahdi El Mhamdi παραιτήθηκε αφού η εταιρεία του απαγόρευσε να δημοσιεύσει μια έντυπη προειδοποίηση για ευπάθειες στον κυβερνοχώρο σε μεγάλα γλωσσικά μοντέλα όπως π. Βάρδος. Το 2020, ο ερευνητής τεχνητής νοημοσύνης Timnit Gebru αφέθηκε ελεύθερος μετά τη δημοσίευση έρευνας που κατηγορούσε την Google για ανεπαρκή προσοχή στην ανάπτυξη της τεχνητής νοημοσύνης.

Ωστόσο, μια αυξανόμενη φατρία ερευνητών τεχνητής νοημοσύνης, στελεχών τεχνολογίας και άλλων μελλοντολόγοι με επιρροή στάθηκαν ενάντια στην ταχέως εξελισσόμενη «πρόοδο» της Google και των ανταγωνιστών της στη Microsoft και στον κατασκευαστή ChatGPT OpenAI μέχρι να επιβληθούν αποτελεσματικές διασφαλίσεις στην τεχνολογία. Μια πρόσφατη ανοιχτή επιστολή που ζητούσε ένα εξάμηνο μορατόριουμ στα «γιγάντια πειράματα τεχνητής νοημοσύνης» προσέλκυσε χιλιάδες υπογράφοντες, μεταξύ των οποίων ο συνιδρυτής του OpenAI Elon Musk και ο συνιδρυτής της Apple, Steve Wozniak.

Η δυνατότητα της τεχνολογίας να ανατρέψει την κοινωνία καθιστώντας πολλά ανθρώπινα επαγγέλματα (ή τους ίδιους τους ανθρώπους) απαρχαιωμένα είναι κεντρική στις προειδοποιήσεις πολλών ειδικών, αν και μικρότεροι κίνδυνοι όπως παραβιάσεις δεδομένων – που έχουν ήδη συμβεί στο OpenAI – αναφέρονται επίσης συχνά.

https://www.rt.com/news/574501-google-employees-stop-ai-bard/

 

Μοιραστείτε το!

Leave a Reply

You can use these HTML tags

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>