Στον χώρο των νομικών υπηρεσιών, καθώς οι επιχειρήσεις αναζητούν τρόπους να μειώσουν κόστος και να αυξήσουν την ταχύτητα των διαδικασιών, η agentic AI προβάλλεται ως η νέα επανάσταση: Συστήματα ικανά να λαμβάνουν αποφάσεις, να εκτελούν πολύπλοκες διαδικασίες και να λύνουν προβλήματα με ελάχιστη ανθρώπινη καθοδήγηση. Ωστόσο, ο δρόμος προς την πραγματική αυτονομία αποδεικνύεται πιο περίπλοκος.
Οι νομικές ομάδες ήταν από τους πρώτους κλάδους που υιοθέτησαν τη γενετική τεχνητή νοημοσύνη για τυποποιημένα καθήκοντα όπως η επεξεργασία συμβολαίων και οι έλεγχοι συμμόρφωσης. Η agentic AI υπόσχεται ένα βήμα παραπέρα, όμως προς το παρόν παραμένει σε εμβρυακό στάδιο: Σύμφωνα με την Gartner, λιγότερο από 1% των 5.000 μεγαλύτερων εταιρειών τη χρησιμοποιεί για νομικές εργασίες. Η βασική δυσκολία έγκειται στην ανάγκη περιορισμένου ανθρώπινου ελέγχου, κάτι που οι νομικές υπηρεσίες διστάζουν να εγκαταλείψουν.
Η Salesforce αποτελεί ένα από τα πιο χαρακτηριστικά παραδείγματα. Χρησιμοποιεί την πλατφόρμα Agentforce — το δικό της agentic AI — μαζί με άλλα εργαλεία για να απαντά σε ερωτήματα πωλήσεων, να ιεραρχεί αιτήματα και να διαπραγματεύεται συμβάσεις. Παρότι το σύστημα εξοικονομεί περίπου 9.500 ώρες εργασίας τον χρόνο, όλες οι αποφάσεις περνούν από ανθρώπινο έλεγχο. Ο επικεφαλής νομικός σύμβουλος της εταιρείας, Sabastian Niles, αναγνωρίζει ότι το λογισμικό λειτουργεί ως «διαχειριστής εργασιών», όχι ως αυτόνομος διαπραγματευτής. Μόνο στο μέλλον, υποθέτει, θα μπορούσαν δύο AI agents — της Salesforce και ενός πελάτη — να διαπραγματεύονται απευθείας μεταξύ τους.
Οι προμηθευτές agentic AI επίσης δεν κρύβουν τις ανάγκες για ανθρώπινη εποπτεία. Η Harvey, μια από τις πιο γνωστές εταιρείες του χώρου, προειδοποιεί ότι κάθε τελικό προϊόν «πρέπει να εξετάζεται προσεκτικά από δικηγόρο», ενώ η Eudia αύξησε το προσωπικό των νομικών ειδικών της προκειμένου να βελτιώσει τον έλεγχο ποιότητας. Όπως δηλώνει ο συνιδρυτής της, Omar Haroun, η καλύτερη απόδοση επιτυγχάνεται όταν AI agent και άνθρωπος συνεργάζονται.
Ακόμα κι έτσι, υπάρχουν παραδείγματα που δείχνουν πως η agentic AI μπορεί να ξεπεράσει την ανθρώπινη κρίση. Η Legora, σουηδική εταιρεία, κατέγραψε περιπτώσεις όπου οι αναλύσεις της σε συμφωνίες συγχωνεύσεων και εξαγορών ήταν ακριβέστερες από εκείνες των δικηγόρων ενός διεθνούς χρηματοπιστωτικού οργανισμού. Ωστόσο, τέτοια παραδείγματα δεν αρκούν για να κάμψουν τους φόβους για «παραισθήσεις» — τα λάθη της AI που μπορεί να οδηγήσουν σε σοβαρές συνέπειες.
Το ζήτημα της ευθύνης παραμένει θολό: Σε πολλές περιπτώσεις, η απάντηση είναι πως «ο πελάτης» φέρει την τελική ευθύνη, ακόμα κι όταν χρησιμοποιεί AI εργαλεία. Η ανησυχία για σφάλματα και το ενδεχόμενο λανθασμένης συμβουλής περιορίζει τις εταιρείες από το να δώσουν πλήρη αυτονομία στους agents.
Η προοπτική, όμως, παραμένει ισχυρή. Εταιρείες όπως η Dentsu χρησιμοποιούν την agentic AI για έλεγχο συμμόρφωσης, ενώ αναζητούν μελλοντικές εφαρμογές όπως η χαρτογράφηση κόστους εξωτερικών νομικών συνεργατών. Οι ηγέτες του κλάδου αναγνωρίζουν ότι η τεχνολογία μπορεί να γίνει «μεταμορφωτική», αλλά όχι άμεσα — χρειάζεται χρόνος ώστε τα νομικά τμήματα να μάθουν να τη χρησιμοποιούν με ασφάλεια και να εντοπίσουν τα σημεία όπου πραγματικά παράγει αξία.
Το συμπέρασμα που προκύπτει για το 2025–2026: Η agentic AI έχει τεράστιες δυνατότητες να αλλάξει ριζικά τον τρόπο με τον οποίο λειτουργούν οι νομικές υπηρεσίες, αλλά η εποχή της πλήρους αυτονομίας δεν έχει έρθει ακόμη. Το μέλλον θα απαιτήσει έναν «μικτό κόσμο», όπου η τεχνητή νοημοσύνη εκτελεί επαναλαμβανόμενες και σύνθετες εργασίες, αλλά η τελική κρίση και η λογοδοσία παραμένουν ανθρώπινες.