Η αμερικανική δικηγορική εταιρεία προσωπικών τραυματισμών Morgan και Morgan έστειλε ένα βασικό μήνυμα ηλεκτρονικού ταχυδρομείου σε περισσότερους από 1.000 δικηγόρους αυτό το μήνα: η τεχνητή νοημοσύνη μπορεί να επινοήσει ψεύτικη νομολογία και μπορείτε να αφαιρεθούν χρησιμοποιώντας πληροφορίες med-up στην αρχειοθέτηση του δικαστηρίου.

Ένας ομοσπονδιακός δικαστής στο Vyoming είχε απειλήσει να εγκρίνει δύο δικηγόρους στην επιχείρηση, οι οποίοι περιλάμβαναν τις φανταστικές υποθέσεις στη δίκη εναντίον της Walmart. Ένας από τους δικηγόρους παραδέχτηκε σε δικαστήριο που καταθέτει την περασμένη εβδομάδα ότι χρησιμοποίησε ένα πρόγραμμα AI, στο οποίο οι υποθέσεις ήταν “ψευδαισθήσεις” και ζήτησαν συγγνώμη για ένα άγνωστο λάθος.

Για να δημιουργήσει νομική φαντασία στην υπόθεση, η τάση του AI έχει παρακινήσει τα δικαστήρια σε ολόκληρη τη χώρα να αμφισβητήσουν ή να πειθαρχούν δικηγόρους σε τουλάχιστον επτά περιπτώσεις τα τελευταία δύο χρόνια και μια νέα υψηλή τεχνολογία για περιπτώσεις και δικαστές, ο πονοκέφαλος Wala γίνεται, τα Reuters διαπίστωσαν.

Η υπόθεση Walmart ξεχωρίζει επειδή περιλαμβάνει μια διάσημη δικηγορική εταιρεία και έναν μεγάλο εταιρικό εναγόμενο. Όμως, καθώς τα παραδείγματα έχουν προχωρήσει σε όλα τα είδη των περιπτώσεων, επειδή οι chatbots όπως chatbots ξεκίνησαν στην εποχή του AI, υπογραμμίζοντας έναν νέο κίνδυνο διαφορών.

Ένας εκπρόσωπος της Morgan και της Morgan δεν απάντησε στο αίτημα του σχολίου. Η Walmart αρνήθηκε να σχολιάσει. Ο δικαστής δεν έχει ακόμη αποφασίσει να πειθαρχήσει τους δικηγόρους στην υπόθεση Walmart, η οποία φέρεται να περιλάμβανε ελαττωματικό παιχνίδι hoverboard.

Το φιλελεύθερο AIS συμβάλλει στη μείωση του χρόνου προώθησης που οι δικηγόροι πρέπει να ερευνήσουν και να σχεδιάσουν νομικά ενημερωτικά δελτία, οδηγώντας σε πολλές δικηγορικές εταιρείες να συμβάλλουν με τους προμηθευτές AI ή να κάνουν τον δικό τους εξοπλισμό AI με τους πωλητές AI. Πέρυσι, εξήντα τοις εκατό των δικηγόρων από τους δικηγόρους που ερωτήθηκαν από την εταιρεία του Reuters, Thomson Reuters, δήλωσαν ότι χρησιμοποίησαν AI για εργασία και το 12% δήλωσε ότι το χρησιμοποιούν τακτικά.

Ωστόσο, το γενετικό AI είναι γνωστό ότι κάνει τα γεγονότα με αυτοπεποίθηση, και οι δικηγόροι που χρησιμοποιούν θα πρέπει να είναι προσεκτικοί, είπε από νομικούς εμπειρογνώμονες. Το AI μερικές φορές παράγει ψευδείς πληροφορίες, γνωστές ως “ψευδαισθήσεις” στη βιομηχανία, καθώς τα μοντέλα παράγουν αντιδράσεις που βασίζονται σε στατιστικά πρότυπα που μαθαίνουν από μεγάλο σύνολο δεδομένων αντί να επαληθεύουν τα γεγονότα σε αυτά τα σύνολα δεδομένων.

Οι κανόνες της ηθικής δικηγόρου απαιτούν από τους δικηγόρους έναν κτηνίατρο και πειθαρχούν την κατάθεση ή τον κίνδυνο του δικαστηρίου τους. Ο Αμερικανός δικηγορικός σύλλογος είπε πέρυσι στους 400.000 μέλη ότι αυτές οι υποχρεώσεις έχουν επεκταθεί σε “μια άγνωστες λανθασμένες εσφαλμένες αντίθετες” μέσω του AI.

Τα αποτελέσματα δεν έχουν αλλάξει μόνο επειδή έχει αναπτυχθεί ο εξοπλισμός νομικών ερευνών, δήλωσε ότι ένας δικηγόρος για να χρησιμοποιήσει τον Andrew Pearlman, τον Νομικό Σχολείο του Πανεπιστημίου Safok και τον AI για να αυξήσει το νόμιμο έργο.

“Όταν οι δικηγόροι πιάνονται να κάνουν αποσπάσματα χωρίς να κουβεντιάζουν ή να χρησιμοποιούν οποιοδήποτε γενετικό εργαλείο AI, είναι ανικανότητα, απλά καθαρή και απλή”, δήλωσε ο Pearlman.

«AI έλλειψη αλφαβητισμού»

Τον Ιούνιο του 2023, ένας ομοσπονδιακός δικαστής στο Μανχάταν στο Μανχάταν επέβαλε πρόστιμο 5.000 δολαρίων έως δύο δικηγόρων της Νέας Υόρκης σε ένα από τα αρχικά δικαστήρια σχετικά με τη χρήση δικηγόρων ενός ομοσπονδιακού δικαστή AI του AI, το οποίο η AI έχει επιβληθεί πρόστιμο 5.000 $ .

Πέρυσι, ένας ξεχωριστός ομοσπονδιακός δικαστής από τη Νέα Υόρκη εξετάζοντας την απαγόρευση σε μια υπόθεση που σχετίζεται με τον Michael Cohen, πρώην δικηγόρο και τον σταθεροποιητή του Donald Trump πέρυσι, ο οποίος δήλωσε ότι κατά λάθος ανέφερε τη δική του δικηγόρο ψεύτικη υπόθεση ότι ο ποινικός φόρος και η εκστρατεία του δικηγόρου παρουσιάστηκε σε περίπτωση χρηματοδότησης.

Ο Cohen, ο οποίος χρησιμοποίησε τον AI Chatbot Bard της Google, και ο δικηγόρος του δεν εγκρίθηκε, αλλά ο δικαστής κάλεσε το επεισόδιο “ενοχλητικό”.

Τον Νοέμβριο, ένας ομοσπονδιακός δικαστής από το Τέξας διέταξε έναν δικηγόρο, ο οποίος ανέφερε οποιεσδήποτε περιπτώσεις και αποσπάσματα στην υπόθεση αδίκημα για να καταβάλει πρόστιμο 2.000 δολαρίων και περίπου ένα γενικό AI στα μαθήματα του νομικού τομέα.

Ένας ομοσπονδιακός δικαστής στη Μινεσότα δήλωσε τον περασμένο μήνα ότι ένας λανθασμένος ειδικός πληροφόρησης κατέστρεψε την αξιοπιστία του στο δικαστήριο, όταν αναφέρθηκε κατά λάθος ψεύτικο, τα αποσπάσματα από την AI από μια παρωδία “deepfek” σε μια υπόθεση, αναφέροντας ψεύτικα, συνδέονταν τα αποσπάσματα AI .

Ο Harry Sarden, καθηγητής νόμου στο νομικό σχολείο στο Πανεπιστήμιο του Κολοράντο, ο οποίος μελετά τον AI και το νόμο, δήλωσε ότι συμβουλεύει τους δικηγόρους να ξοδεύουν χρόνο μαθαίνοντας “δυνατά σημεία και αδυναμίες εξοπλισμού”. Είπε ότι τα αυξανόμενα παραδείγματα δείχνουν ότι η “έλλειψη αλφαβητισμού AI” στο επάγγελμα, αλλά η ίδια η τεχνολογία δεν αποτελεί πρόβλημα.

“Οι δικηγόροι έχουν κάνει πάντα λάθη στην κατάθεσή τους πριν από την AI”, είπε. “Αυτό δεν είναι καινούργιο.”

-Sara Brand, Reuters


Σύνδεσμος πηγής