AI für Recht & Steuer:
Wie rechtskonform nutzen?
Der Aufstieg leistungsfähiger AI im Recht bietet aufregende Möglichkeiten: Schnelle Antworten auf juristische Recherchefragen, Zusammenfassung umfangreicher Dokumente und Textentwürfe für die tägliche Rechtspraxis. Aber es wirft auch wichtige Fragen rund um Datenschutz und Sicherheit auf.
Jurist:innen sind im Geschäft mit sensiblen Informationen und strikten Standesregeln, daher ist die Sicherheit eines AI-Tools unerlässlich, um ihren ethischen und rechtlichen Verpflichtungen gegenüber Mandanten nachzukommen, berufliche Risiken zu minimieren und wertvolle Informationen zu schützen.
Hier sind fünf Kernbereiche in Bezug auf Datenschutz und Sicherheit, die Sie bei Auswahl und Nutzung eines KI-Tools für Ihre Rechtspraxis berücksichtigen sollten:
Datenschutz / Geheimnisschutz
Jurist:innen agieren in einer Welt der Vertraulichkeit. Kundendaten, von Finanzunterlagen bis hin zu Strategieplänen, müssen streng geschützt werden. Es muss sichergestellt sein, dass eingegebene Daten DSGVO-konform behandelt werden und nicht für das Training des AI-Tools genutzt werden.
Datenverzerrung
AI-Algorithmen lernen von Trainings-Daten. Wenn diese Daten Diskriminierung dokumentieren, kann das AI-Tool diese Muster übernehmen und in die Outputs übernehmen. Es gilt zu überprüfen, ob und wie ein Anbieter eines AI-Tools gegen unfaire Verzerrungen in Trainingsdaten vorsorgt.
Falschinformationen/Halluzinationen
Jurist:innen sind verantwortlich für die Richtigkeit und Vollständigkeit ihrer rechtlichen Arbeitsergebnisse. Es ist zu erheben, welche Schritte beim AI-Tool unternommen werden, um die Bereitstellung von falschen oder irreführenden Inhalten zu minimieren. Man muss natürlich bedenken, dass es bei Ergebnissen eines AI Tools immer eine Restwahrscheinlichkeit für Fehler gibt und Ergebnisse stets geprüft werden sollten. Susanne Mortimore, CEO LexisNexis Österreich, erinnerte beim 4Gamechangers-Festival: ”Eine AI soll zB eine Anwältin niemals ersetzen, jedes AI-Ergebnis soll kontrolliert und hinterfragt werden, die Letztentscheidung muss beim Menschen bleiben.”
Attribution / Zurechnung
Geoffrey D. Ivnik weist in seinem Artikel “AI Privacy & Security: The LexisNexis Commitment“ ganz klar darauf hin, dass für rechtliche Dokumente die Zurechnung zu (menschlichen) Jurist:innen unerlässlich sei, um die berufliche Verantwortung aufrechtzuerhalten. Dies erfordere, dass bei der Nutzung von AI ausreichend Informationen geliefert werden, um die Richtigkeit aller AI-generierten Inhalte zu überprüfen. ZB gibt das Tool die Quellmaterialien ordnungsgemäß an, die von der AI bei der Erstellung von Outputs verwendet werden?
Governance
Prüfen Sie die Erfolgsbilanz, Zuverlässigkeit, Kompetenz und Erfahrung eines Anbieters bei der Entwicklung von AI. Sind robuste Regeln und Verfahren vorhanden für Datenschutz, Ethik, Verantwortung, AI-Erklärbarkeit, etc?
Was LexisNexis in diesen fünf Kernbereichen konkret zu bieten hat:
Erfahren Sie hier, welche internen Regeln LexisNexis eingeführt hat, um die Entwicklung vertrauenswürdiger und verantwortungsvoller AI-Tools zu steuern.