Naciones Unidas abogado estadounidense se enfrenta a posibles sanciones después de haber usado el popular ChatGPT redactar un escrito y descubrir que la aplicación de la inteligencia artificial (IA) se había inventado toda una serie de supuestos precedentes legales.
Según publicó este sábado el diario The New York Times, el letrado en problemas es Steven Schwartz, abogado de caso qu’irime en un tribunal de Nueva York, una solicitud contra el aerosol Avianca presentó por un pasajero que asegura que sufrió una lesión al ser golpeado con un carrito de servicio colgante un vuelo.
Schwartz representó a la demandante y utilizó ChatGPT para redactar un escrito en el que se expresó una solicitud de defensa para este desacreditado caso. En el documento de diez páginas el abogado citaba varias decisiones judiciales para apoyar sus tesis, pero no tardó en decubrirse que el conocido chatbot de la compañía OpenAI se las había inventado.
“La Corte se encontrará ante una nueva situación. Una presentación aplazada por el peticionario en oposición a una moción de desestimar (el caso) está llena de casos inexistentes de casos”, escribió el juez Kevin Castel este mes.
Este viernes, Castel emitió una orden convocando a una audiencia el próximo 8 de junio en la que Schwartz deberá tratar de explicar por que no debería ser sancionado después de haber tratado de usar supuestos precedentes totalmente falsos. Lo hizo un día después de que el proprio abogado presenta a jurada en la que admisión haber usado ChatGPT para preparar el escrito y reconoció que única la verificación que había llevado a cabo era preguntar a la aplicación si los casos que citaba eran reales.
noticias relacionadas
Schwartz se justificó asegurando que nunca antes había usado una herramienta de este tipo y que, por tanto, «no era consciente de la posibilidad de que su contenido pudiera ser falso». El abogado subrayó que no tenía ninguna intención de engañar al tribunal y exculpó totalmente a otro abogado del bufete que se expone también a posibles sanciones.
El documento, visto por EFE, se cierra con una culpa en la que Schwartz lamenta profundamente haber usado inteligencia artificial para apoyar su investigación y promete no hacerlo nunca más sin verificar totalmente su autenticidad.
Más noticias - Noticias de última hora El logotipo de Siemens Gamesa, junto a un…
Más noticias - Noticias recientes Solo necesitamos un día para saber la fecha exacta de…
Más noticias - Noticias recientes El Ayuntamiento de Madrid quiere publicar un listado de usos…
Medios relacionados - Noticias recientes El primer ministro eslovaco, el populista Robert Fico, ha demostrado…
Más noticias - Noticias recientes El ranking de las próximas Champions de equipos como Girona,…
Más noticias - Noticias recientes Tras los anuncios de OpenAI y Google que presentaron esta…