Microsoft prohíbe a la policía de EU usar reconocimiento facial

0
1

Microsoft ha actualizado el Código de Conducta de Azure OpenAI Service para limitar el acceso a las herramientas de OpenAI, impidiendo que los departamentos de policía estadounidenses empleen la IA generativa para análisis de texto, voz o reconocimiento facial.

Esta medida busca evitar que la policía use tecnologías de inteligencia artificial en cámaras móviles para identificar personas en entornos no controlados.

La prohibición incluye modelos de IA como GPT-3, GPT-4 y GPT-4 Turbo, así como modelos Vision, Codex, DALL-E 2, DALL-E 3 y Whisper. La compañía con sede en Redmond estableció restricciones específicas que evitan que la policía recurra a estas herramientas para identificar individuos en bases de datos de sospechosos o realizar vigilancia constante a través de datos biométricos o personales.

Microsoft también prohíbe el uso de Azure OpenAI para identificación o verificación de identidades individuales mediante rostros, incluso si involucra a la policía estatal o local de Estados Unidos. Asimismo, el análisis facial para determinar emociones, género o edad de una persona también está prohibido.

Esta medida de Microsoft llega poco después de que Axon, una empresa que fabrica tecnología y armamento para fuerzas militares y de seguridad, anunció el lanzamiento de un dispositivo que utiliza GPT-4 de OpenAI para resumir el audio de cámaras corporales.

Sin embargo, críticos han señalado posibles riesgos, como sesgos raciales y «alucinaciones» derivadas de los datos de entrenamiento.

Aunque TechCrunch informó que no está claro si Axon utiliza GPT-4 a través del servicio Azure OpenAI, Microsoft parece haber tomado estas medidas como respuesta al producto de Axon. OpenAI ya había restringido previamente el uso de sus modelos de IA para reconocimiento facial mediante sus API.