La IA legal se está partiendo en dos y la mayoría de la gente no nota la diferencia | Suerte

Fecha:

Compartir publicación:

La semana pasada, Thomson Reuters anunció que CoCounsel había atraído a un millón de usuarios en 107 países y territorios. Al mismo tiempo, Anthropic introdujo un conjunto ampliado de complementos empresariales para Claude, incluidas herramientas especializadas para trabajos legales, financieros y de recursos humanos.

Estos anuncios, que se producen con pocas horas de diferencia, ponen de relieve lo que realmente está sucediendo en el espacio legal de la IA y por qué la captura de pantalla de Wikipedia de hace unas semanas es más importante que nunca.

Hace unas semanas, una publicación del fundador X circuló en LinkedIn. El asesor general revisó a Claude Anthropic para la revisión del contrato y la IA extrajo información de Wikipedia.

Sugerir tomas calientes. Los escépticos de la IA han cantado la victoria: los modelos de fundaciones no están preparados para el trabajo legal. Los alcistas de la IA trataron esto como dolores de crecimiento. Ambas partes se perdieron lo que esta captura de pantalla realmente mostraba sobre hacia dónde se dirigía este mercado.

Pasé años desarrollando inteligencia artificial para los abogados de Thomson Reuters. Ese momento de Wikipedia no fue un fallo de la IA. Fue una falla del sistema. Comprender esta diferencia determinará quién ganará la próxima década de tecnología legal, y los anuncios de esta semana muestran que la lucha se está intensificando.

Contexto faltante

Cuando el recolector de basura probó a Claude, el sistema hizo exactamente para lo que fue diseñado: extraer información de las fuentes disponibles. Sin base de datos de investigación jurídica, sin contenido autorizado, sin precedentes sólidos. Sólo una red abierta que incluye Wikipedia.

La mayoría de las reacciones cayeron en campos predecibles. Uno dijo que los modelos de fundaciones no hacen el trabajo legal. El resto de modelos mencionados serán mejorados. Ambos están pasando por alto el verdadero problema.

Claude y ChatGPT tienen habilidades notables. El problema no es la inteligencia, sino si el sistema circundante está diseñado para realizar la tarea en cuestión, combinando fuentes autorizadas, supervisión experta y medidas de seguridad prácticas.

Este es un problema arquitectónico.

momento antrópico

La declaración de Anthropic concreta esta división. La compañía ha lanzado complementos específicos de cada departamento, incluido un complemento para trabajos legales que puede revisar documentos, señalar riesgos, clasificar acuerdos de confidencialidad y realizar un seguimiento del cumplimiento. Ahora las empresas pueden conectar Claude Cowork a Google Drive, Gmail, DocuSign y otros sistemas corporativos.

Es exactamente el tipo de movimiento que sacudió las acciones de software en febrero, cuando nuestras acciones de Thomson Reuters cayeron más del 30% en la liquidación inicial. Pero cuando anunciamos un millón de usuarios de CoCounsel, nuestras acciones subieron un 11%, la mayor ganancia en un día desde 2009.

El mercado está empezando a darse cuenta de algo importante: existe una diferencia fundamental entre la IA que puede automatizar los flujos de trabajo y la IA que puede realizar trabajos legales autorizados.

La verdadera brecha en la IA legal

Gran parte de la confusión en el debate legal actual sobre la IA proviene de tratar todo el trabajo legal como igual cuando no lo es. El trabajo legal se puede dividir en dos categorías: trabajo que requiere autoridad y trabajo que no.

Existe una categoría amplia y valiosa de trabajo jurídico que no requiere fuentes jurídicas autorizadas. Los abogados y los equipos legales utilizan regularmente software para estandarizar el formato, comparar contratos con guiones internos, gestionar la facturación y las hojas de horas, o automatizar los flujos de trabajo internos. Nada de esto requiere jurisprudencia, estatutos o respaldo regulatorio.

Aquí es donde hoy operan principalmente productos como Cowork, Harvey y Legora.

Por qué el complemento legal de Cowork cambia las reglas del juego

El complemento legal de Anthropic merece especial atención porque ataca muy bien la capa no autorizada del trabajo legal. Con un enfoque en documentos internos, flujos de trabajo y eficiencia operativa, compite directamente con la mayoría de los principales casos de uso para nuevas empresas verticales.

Con conectores empresariales para sistemas existentes y la capacidad de las empresas de crear sus propios complementos, Cowork se posiciona como el sistema operativo para el trabajo legal. Esta es una amenaza directa para las nuevas empresas verticales y legales de IA.

Pero -y esto es muy importante- esto no convierte a Cowork en un sustituto de los sistemas diseñados para realizar trabajos legales autorizados. Y agrupar estas categorías oscurece lo que realmente está sucediendo en el mercado.

Donde la autoridad realmente importa

La situación cambia cuando el trabajo legal requiere autoridad:

• Investigación de un problema jurídico no resuelto. • Desarrollar nuevos argumentos. • Revisar el acuerdo para verificar el cumplimiento de las leyes y regulaciones. • Producir trabajos que deban ser citados, revisados ​​y defendidos.

Estos desafíos requieren contenido autorizado y sistemas diseñados para gestionar el riesgo, la responsabilidad y la confianza.

Aquí es donde Thomson Reuters juega con CoCounsel.

Cuando creamos CoCounsel, no incluimos el modelo subyacente en la interfaz de usuario. Hemos integrado la base de datos de Westlaw con millones de decisiones judiciales, estatutos y regulaciones seleccionadas por expertos legales durante décadas. Hemos combinado la práctica jurídica con miles de notas prácticas y documentos escritos por abogados.

Crear este contenido tomó décadas y miles de millones de dólares. No se puede recrear únicamente mediante ajustes finos.

¿Qué muestra realmente una captura de pantalla de Wikipedia?

El incidente de Wikipedia muestra lo que sucede cuando se utiliza IA sin una infraestructura autorizada para tareas que la requieren. Tienes alucinaciones y errores y, lo más importante, pierdes la confianza.

Esto no es exclusivo de Claude. Cualquier sistema diseñado para realizar trabajo legal autorizado sin fuentes autorizadas fracasará de manera similar, incluso con los complementos más sofisticados.

¿Por qué es tan difícil organizar la ley?

La ley es sucia. Está fragmentado por jurisdicción y gran parte no es completamente digital. Está cambiando constantemente.

En Thomson Reuters, hemos creado sistemas de inteligencia artificial, canales de datos y flujos de trabajo editoriales, y empleamos a miles de expertos legales para organizar la ley en un sistema con capacidad de búsqueda y constantemente actualizado tanto para personas como para máquinas. Muchas empresas han intentado replicar esto. La mayoría de ellos fracasaron.

Damos la bienvenida a la innovación porque nos hace mejores, pero es importante ser honestos acerca de lo complejo que es este problema.

¿Qué significa esto para el mercado?

Creo que el trabajo jurídico más valioso y exigente requiere autoridad. Este es el tipo de IA que creamos en Thomson Reuters: ahora un millón de profesionales en más de 107 países y territorios confían en CoCounsel porque no se toleran los errores. Continuaremos utilizando las mejores herramientas y técnicas, incluida la innovación de proveedores de modelos principales como Anthropic, para hacer realidad esta visión.

Al mismo tiempo, empresas como Harvey y Legora enfrentan posiciones estratégicas cada vez más complejas. Ahora se encuentran entre jugadores con infraestructura establecida, empresas ejemplares con enormes ventajas de escala y el ecosistema de complementos empresariales de Anthropic que pueden manejar un trabajo legal receptivo. Es un lugar difícil para competir a largo plazo.

El paso de Anthropic a complementos legales no amenaza lo que hacemos, lo deja claro. El mercado se divide en IA operativa e IA de autoridad. Ambos son valiosos. Pero no es lo mismo.

Esta captura de pantalla de Wikipedia no prueba que la IA no pueda realizar trabajos legales. Esto demuestra que la IA legítima requiere algo más que un modelo inteligente, incluso uno equipado con complementos sofisticados.

Esto requiere contenido autorizado, experiencia profunda en la materia e infraestructura y sistemas de gestión diseñados para el riesgo profesional. Los anuncios de esta semana de Anthropic y Thomson Reuters demuestran que la brecha es real y está creciendo.

Aquellas empresas que entiendan esto ganarán. El resto eventualmente aprenderá por las malas.

Las opiniones expresadas en los comentarios de Fortune.com son únicamente los puntos de vista de los autores y no reflejan necesariamente las opiniones y creencias de Fortune.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

spot_img

Artículos relacionados

Las mujeres de la Generación Z son la nueva cara del desempleo, y no es porque sean demasiado exigentes. Las bajas calificaciones y la...

Millones de trabajadores se están preparando para despidos y reestructuración de IA. Pero una porción cada vez mayor...

El Pentágono compromete 150 millones de dólares para un fondo de riesgo de tecnología marítima y parece estar intensificando los acuerdos de riesgo |...

El Pentágono, que comenzó a hacer compromisos de capital con fondos de capital de riesgo estadounidenses hace unos...

La guerra en Irán da origen a una teoría económica centenaria y destruye el orden mundial basado en la OMC | Suerte

Buen día. La promesa del presidente Donald Trump de ofrecer apoyo en materia de seguros y escoltas navales...

Por qué el fondo de cobertura de IA de Leopold Aschenbrenner está apostando fuerte por las empresas de energía y los mineros de Bitcoin...

Cuando Fortune describió a Leopold Aschenbrenner en octubre de 2025, el ex investigador de OpenAI, que había sido...