Πώς μπορεί να ελεγχθεί η χρήση της AI από τους εργαζόμενους - Τι κάνουν οι εταιρείες

Το προσωπικό υιοθετεί την τεχνητή νοημοσύνη πιο γρήγορα από ό,τι οι εταιρείες μπορούν να εκδώσουν κατευθυντήριες γραμμές για το πώς και πότε επιτρέπεται

Η δημιουργική τεχνητή νοημοσύνη αναγκάζει πολλούς νέους υπαλλήλους να ανταπεξέλθουν σε απαιτητικές καταστάσεις αντικαθιστώντας εν μέρει την έλλειψη εμπειρίας τους. Ταυτόχρονα, πολλά διευθυντικά στελέχη δεν έχουν θέσει συγκεκριμένες κατευθυντήριες γραμμές για το ποιες χρήσεις της τεχνολογίας μπορεί να είναι κατάλληλες.

Οι εργοδότες προσπαθούν να ελέγξουν την χρήση ΑΙ καθώς οι εργαζόμενοι υιοθετούν τη δημιουργική τεχνητή νοημοσύνη με πολύ ταχύτερο ρυθμό από ό,τι θεσπίζονται σχετικές εταιρικές πολιτικές.

Μια έρευνα της Federal Reserve Bank του St Louis τον Αύγουστο διαπίστωσε ότι σχεδόν το 25% του εργατικού δυναμικού των ΗΠΑ χρησιμοποιούσε ήδη την τεχνολογία σε εβδομαδιαία βάση. Το ποσοστό αυτό αυξάνεται σε σχεδόν 50% στους κλάδους λογισμικού και χρηματοοικονομικών. Οι περισσότεροι από αυτούς τους χρήστες στρέφονταν σε εργαλεία όπως το ChatGPT για να βοηθήσουν στη συγγραφή και την έρευνα, συχνά ως εναλλακτική λύση στο Google, καθώς και ως εργαλείο μετάφρασης ή βοηθό κωδικοποίησης.

Ωστόσο, οι ερευνητές προειδοποιούν ότι μεγάλο μέρος αυτής της πρώιμης υιοθέτησης συνέβη στα τυφλά, καθώς οι εργαζόμενοι χαράζουν τα δικά τους μονοπάτια απουσία σαφών εταιρικών κατευθυντήριων γραμμών, ολοκληρωμένης εκπαίδευσης ή προστασίας της ασφάλειας στον κυβερνοχώρο. Μέχρι τον Σεπτέμβριο, σχεδόν δύο χρόνια μετά την κυκλοφορία του ChatGPT, λιγότερα από τα μισά στελέχη που συμμετείχαν σε έρευνα από την αμερικανική εταιρεία απασχόλησης για στελέχη νομικών υπηρεσιών Littler είπαν ότι οι οργανώσεις τους είχαν θεσπίσει κανόνες σχετικά με τον τρόπο με τον οποίο οι εργαζόμενοι πρέπει να χρησιμοποιούν τη δημιουργική τεχνητή νοημοσύνη.

Θέσπιση πολιτικής για την τεχνητή νοημοσύνη

H πρώτη αντίδραση πολλών εργοδοτών ήταν να προχωρήσουν σε μια γενική απαγόρευση. Εταιρείες όπως η Apple, η Samsung, η Goldman Sachs και η Bank of America απαγόρευσαν στους υπαλλήλους να χρησιμοποιούν το ChatGPT το 2023, σύμφωνα με το Fortune, κυρίως λόγω ανησυχιών σχετικά με το απόρρητο των δεδομένων. Καθώς όμως τα μοντέλα τεχνητής νοημοσύνης έχουν γίνει πιο δημοφιλή και ισχυρά και θεωρούνται ολοένα και περισσότερο ως το κλειδί για να παραμείνουν ανταγωνιστικές οι εταιρείες σε κλάδους με έντονο ανταγωνισμό, τα ηγετικά στελέχη των επιχειρήσεων αν οι απαγορευτικές πολιτικές αποτελούν βιώσιμη λύση.

«Ξεκινήσαμε από την απαγόρευση, αλλά δεν θέλαμε να την διατηρήσουμε, είπε στους Financial Times ο Τζέρι Γκάισλερ, επικεφαλής ασφάλειας πληροφοριών στην αμερικανική εταιρεία λιανικής Walmart. «Χρειαζόμασταν απλώς χρόνο για να οικοδομήσουμε ένα εσωτερικό περιβάλλον για να δώσει στους ανθρώπους μας μια εναλλακτική λύση».

Η Walmart προτιμά το προσωπικό να χρησιμοποιεί τα εσωτερικά της συστήματα, συμπεριλαμβανομένου ενός chatbot με τεχνητή νοημοσύνη που ονομάζεται “My Assistant” για ασφαλή εσωτερική χρήση, αλλά δεν απαγορεύει στους εργαζομένους της να χρησιμοποιούν εξωτερικές πλατφόρμες, εφόσον δεν περιλαμβάνουν ιδιωτικές ή αποκλειστικές πληροφορίες στις αναζητήσεις τους. Ωστόσο, έχει εγκαταστήσει συστήματα για την παρακολούθηση των αιτημάτων που υποβάλλουν οι εργαζόμενοι σε εξωτερικά chatbots στις εταιρικές τους συσκευές. Αν τα μέλη της ομάδας ασφαλείας ανακαλύψουν απαράδεκτη συμπεριφορά θα «ασχοληθούν με αυτόν τον εργαζόμενο σε πραγματικό χρόνο», λέει ο Γκάισλερ.

Πιστεύει ότι η θέσπιση μιας «μη τιμωρητικής» πολιτικής είναι ο καλύτερος τρόπος για να συμβαδίσει με το συνεχώς μεταβαλλόμενο τοπίο της τεχνητής νοημοσύνης. «Δεν θέλουμε να πιστεύουν ότι έχουν πρόβλημα επειδή η ασφάλεια έχει έρθει σε επαφή μαζί τους». Χρησιμοποιώντας προτροπές αντί για ποινές βλέπει μηδενική υποτροπή. 

Αποκλειστικά εταιρικά περιβάλλοντα τεχνητής νοημοσύνης

Πολλές μεγάλες εταιρείες έχουν δημμιουργήσει δικά τους περιβάλλοντα δημιουργικής τεχνητής νοημοσύνης. Αλλά, οι εταιρείες που δεν διαθέτουν πόρους για να αναπτύξουν τα δικά τους εργαλεία αντιμετωπίζουν ακόμη περισσότερα ερωτήματα, από ποιες υπηρεσίες, εάν υπάρχουν, να προμηθεύονται τέτοια συστήματα, έως τον κίνδυνο εξάρτησης από εξωτερικές πλατφόρμες.

Ακόμη και με πιο ανεκτικές πολιτικές, οι εργαζόμενοι που χρησιμοποιούν τεχνητή νοημοσύνη μπορεί να μην είναι πρόθυμοι να μοιραστούν αυτά που έμαθαν.

Μια έκθεση από την υπηρεσία ανταλλαγής μηνυμάτων Slack διαπίστωσε ότι σχεδόν οι μισοί υπάλληλοι γραφείου θα ένιωθαν άβολα να πουν στους διευθυντές τους ότι είχαν χρησιμοποιήσει γενετική τεχνητή νοημοσύνη, κυρίως επειδή δεν θέλουν να θεωρούνται ανίκανοι ή τεμπέληδες ή να κινδυνεύουν να κατηγορηθούν για απάτη.

Οι εργαζόμενοι που συμμετείχαν σε δημοσκόπηση από το Slack είπαν επίσης ότι φοβούνταν ότι, εάν τα αφεντικά τους γνώριζαν για τον χρόνο που κερδίζουν χρησιμοποιώντας τεχνητή νοημοσύνη, θα αντιμετώπιζαν απόλυση.

Το μεταβαλλόμενο νομικό τοπίο μπορεί επίσης να δυσκολέψει τις εταιρείες να εφαρμόσουν μια μακροπρόθεσμη στρατηγική για την τεχνητή νοημοσύνη. Η νομοθεσία βρίσκεται υπό ανάπτυξη σε περιοχές, συμπεριλαμβανομένων των ΗΠΑ, της ΕΕ και του Ηνωμένου Βασιλείου, αλλά οι εταιρείες εξακολουθούν να έχουν λίγες απαντήσεις σχετικά με το πώς η τεχνολογία θα επηρεάσει τα δικαιώματα πνευματικής ιδιοκτησίας ή θα ενταχθεί στους υπάρχοντες κανονισμούς περί απορρήτου και διαφάνειας δεδομένων.

Πηγή: ot.gr

Διαβάστε επίσης: BadBox: 192.000 συσκευές Android μολύνθηκαν με κακόβουλο λογισμικό

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΑ