La Controversia de la Inteligencia Artificial en Informes de Uso de Fuerza: Un Llamado a la Precisión
Recientemente, un fallo judicial federal expuso el uso de inteligencia artificial en la redacción de informes de uso de fuerza por parte de agentes de inmigración en Chicago. La jueza federal Sara Ellis, en una nota al pie de una extensa opinión, expresó su preocupación sobre cómo este uso de tecnología podría afectar la confianza pública en las acciones de las fuerzas del orden.
Preocupaciones sobre la Exactitud y Credibilidad
Ellis señaló que el uso de ChatGPT para redactar informes podría comprometer la credibilidad de los agentes y potencialmente explicar la inexactitud de estos documentos. En un ejemplo específico, la jueza describió cómo un agente solicitó a ChatGPT que compilara un relato basado en una breve descripción y varias imágenes, lo que podría resultar en discrepancias con la realidad de los incidentes. «Lo que esta persona hizo es el peor de los mundos», comentó Ian Adams, experto en criminología de la Universidad de Carolina del Sur.
Dificultades en la Utilización de AI
Los profesionales del derecho y la tecnología están debatiendo cómo integrar el uso de la inteligencia artificial en los informes policiales sin sacrificar precisión y ética. Muchos departamentos aún no han establecido políticas claras; sin embargo, aquellas que lo han hecho suelen prohibir usos predictivos de AI en la redacción de informes críticos. La necesidad de un enfoque basado en la «razonabilidad objetiva» es vital, ya que dicha razonabilidad depende de la perspectiva del oficial involucrado.
Citas Clave:
- Ian Adams, «Necesitamos los eventos específicos del incidente y los pensamientos del oficial para determinar si la fuerza fue justificada».
Implicaciones de Privacidad
Además de las preocupaciones de precisión, el uso de AI también plantea serios problemas de privacidad. Katie Kinsey, del Policing Project de NYU, advirtió que si los agentes utilizan versiones públicas de ChatGPT, pueden estar comprometiendo la confidencialidad de las imágenes subidas, que podrían caer en el dominio público.
Desafíos Administrativos en el Uso de Tecnología
Kinsey explicó que muchos departamentos de policía están abordando el uso de AI de forma reactiva. «Preferiríamos que se hicieran las cosas al revés, entendiendo los riesgos antes de implementar estas tecnologías», sugirió. Políticas como las de Utah y California, que exigen etiquetar cualquier contenido generado por AI en informes policiales, podrían ser un paso proactivo.
Soluciones en el Horizonte
Algunas empresas tecnológicas, como Axon, están desarrollando sistemas de AI para ayudar en la redacción de informes, limitando su funcionamiento a sistemas cerrados que utilizan solo audio de cámaras corporales. Esto contrasta con el enfoque actual, que busca incorporar imágenes sin considerar las variaciones en la interpretación visual.
Consideraciones Profesionales
- Andrew Guthrie Ferguson, profesor de derecho, planteó la pregunta: «¿Estamos cómodos con que los oficiales de policía utilicen análisis predictivos?». Las decisiones basadas en datos pueden no reflejar los hechos reales del evento, algo que es vital en procedimientos judiciales.
Conclusión
El uso de inteligencia artificial en la redacción de informes de uso de fuerza presenta un complejo dilema que necesita atención cuidadosa. Se necesita un equilibrio entre innovación tecnológica y el deber de precisión y ética en la justicia penal. Mientras los departamentos de policía abordan estos desafíos, es crucial que se establezcan directrices sólidas y se fomente la transparencia.
Para más información sobre el uso de la inteligencia artificial en la policía, puedes consultar esta fuente y este artículo que exploran los desafíos y la implementación de tecnología en la aplicación de la ley.
