Ciudades del futuro

La Comisión Europea considera que la nueva normativa y de ejecución de “alto riesgo” de AI

Alex Engler

la semana Pasada, la Comisión Europea (CE) publicó un libro blanco en el que se busca garantizar salvaguardias sociales para “alto riesgo” de la inteligencia artificial (AI). El número de gran escala y altamente influyentes de la IA de los modelos de va en aumento tanto en el sector público y privado, y por lo que la CE está considerando seriamente la posibilidad de que nuevas normativas, legislativas ajustes, o mejor la capacidad de supervisión podría ser necesario. Estos modelos afectan a millones de personas a través de la crítica de las decisiones relacionadas con la aprobación de crédito, reclamaciones de seguros, las intervenciones de salud, antes del juicio, la contratación, el despido, y mucho más. Mientras que el reconocimiento facial, las armas autónomas, y lo artificial de la inteligencia en general tienden a dominar la conversación, el debate sobre la regulación de las más comunes aplicaciones es igual de importante.

El nuevo libro blanco de los ecos de los principios de la anterior AI Directrices éticas: la no discriminación, la transparencia, la rendición de cuentas, la privacidad, la robustez del medio ambiente, y la supervisión humana. Este nuevo papel va más allá de muchos antes de IA marcos de ética para ofrecer AI específico las opciones de regulación. Algunas de estas opciones serían las alteraciones existentes en la legislación de la UE, como la de garantizar la ley de responsabilidad del producto puede ser aplicado al software de inteligencia artificial y la inteligencia artificial impulsado por los servicios.

Más notable, sin embargo, es la propuesta de considerar completamente nuevos requisitos de alto riesgo aplicaciones de la AI. El alto riesgo de categorización está limitado a los casos de uso dentro de sectores específicos donde no son particularmente grandes apuestas. El informe explícitamente los nombres de sectores tales como el transporte, la sanidad, la energía, el empleo, y la distancia de identificación biométrica, pero otros, como los servicios financieros podrían ser incluidos. Dentro de estos sectores, sólo especialmente impactantes aplicaciones de la AI iba a recibir la etiqueta de “alto riesgo” y el acompañamiento de la supervisión. Así, mientras que un profesional algoritmo de asignación podrán ser incluidos, de un hospital AI habilitada para software de programación probablemente no califican.

El informe detalla una serie de posibles mecanismos de supervisión para las solicitudes consideradas de alto riesgo de AI. Algunos de ellos se establecen normas para el uso de la IA, tales como el uso de representación de datos de entrenamiento y reunión de los niveles definidos de modelo de precisión y robustez. Otros requieren de almacenamiento de datos y documentación, potencialmente permitiendo gobierno de auditoría de la IA de los modelos. Medidas de transparencia también están bajo consideración. Estos pueden requerir informes a las autoridades reguladoras (por ejemplo, un análisis de sesgo para la protección de las clases) o directamente a los consumidores afectados por el modelo (por ejemplo, una explicación individualizada para su modelo de resultado). No todos estos requisitos se aplican a todos los de alto riesgo de la IA, pero en lugar de algún subconjunto de estos mecanismos podrían estar vinculados con cada uno de los de alto riesgo de la aplicación.

En el pesaje de cómo estos mecanismos pueden trabajar, es valioso para contemplar cómo las diversas intervenciones podrían afectar destacados casos de AI daños. Por ejemplo, la habilitación de las auditorías lenta la proliferación de pseudocientífico la contratación de software a través de los departamentos de recursos humanos? Sería requisitos de presentación de informes ayudar a identificar discriminatorias en el tratamiento de los pacientes en la asistencia sanitaria de la asignación de los algoritmos? Sería más riguroso proceso de pruebas de Tesla, autónomos han hecho más resistentes a las pegatinas que engañar a los vehículos en la conducción a velocidades peligrosas? Estas son preguntas que la CE de papel es la de recaudar—preguntas que la política de los estados UNIDOS-los políticos deberían de hacer, también. Dado un tipo de algoritmo que se utiliza para un concreto de alto riesgo propósito, ¿qué mecanismos de supervisión podría asegurarse de que funciona en un éticas y legales de forma?

Dado un tipo de algoritmo que se utiliza para un concreto de alto riesgo propósito, ¿qué mecanismos de supervisión podría asegurarse de que funciona en un éticas y legales de forma?

Mientras que la CE de papel es la exploración de nuevos requisitos, también deja en claro que la aplicación de la vigente ley es difícil debido a la complejidad y la opacidad de la IA. Se necesita experiencia específica en programación y estadística para evaluar la equidad y la robustez de los modelos con inteligencia artificial, que las agencias reguladoras en toda la UE que todavía no tiene. Esto es muy probable que un problema en los Estados unidos, también. AI modelos puede ejecutar fácilmente en conflicto con muchos de los requisitos federales, tales como los Derechos Civiles de los Actos, la Ley de Estadounidenses con Discapacidades, la Fair Credit Reporting Act, la Ley de Vivienda Justa, y modelos financieros reglamentos. No está claro que las agencias reguladoras son el personal para manejar este nuevo desafío.

La CE notas de papel que invertir en su capacidad para hacer cumplir IA de salvaguardias tiene ventajas reales para la industria, también. El enfoque Europeo sostiene que la responsable de la regulación va a construir la confianza del público en el AI, permitiendo a las empresas a construir sistemas automatizados sin perder la confianza de sus clientes. En términos generales, la CE, la perspectiva es positiva acerca de la aparición de la inteligencia artificial como un propósito general de la tecnología. Se presenta AI como una poderosa herramienta para mejorar la investigación científica, a impulsar el crecimiento económico, y hacer que los servicios públicos más eficientes. Ellos buscan atraer a los €20 millones ($21.7 millones de DÓLARES) en fondos anuales para la IA, algunos de los cuales provienen de la expansión del gasto de la UE. Este esfuerzo también se verá reforzada por una ambiciosa estrategia para incentivar el intercambio de datos y ampliar el acceso a la infraestructura de la nube.

La CE está dispuesta a considerar significativa nuevas medidas de supervisión sobre la rápida proliferación de los sistemas automatizados de toma de decisiones, mientras que también la expansión de sus inversiones en IA innovación y la adopción. En los Estados unidos, ya hay un consenso general sobre el valor de AI—tanto el Senador Chuck Schumer y el Presidente Trump han propuesto recientemente masiva de la nueva IA de inversiones. Sin embargo, parece tener menos interés en el establecimiento de un sólido marco normativo. Política de los estados UNIDOS los políticos deberían reconsiderar y unir las CE es el examen de estas cuestiones de política, tales como: la definición de alto riesgo de AI; la coincidencia de los mecanismos de regulación con determinadas aplicaciones de la AI y las circunstancias, y la exploración de cómo fortalecer la capacidad del gobierno.

a partir de la CE de que el nuevo presidente, Ursula von der Leyen, se ha comprometido a la introducción de la IA legislación en sus primeros 100 días, el libro blanco de la CE podría kickstart negociaciones serias entre los estados miembros de la UE. Esta es una conversación importante para ver, la señalización de un cambio sustancial de distancia de la nebulosa “AI ética” y hacia significativa de supervisión automatizada de sistemas de toma de decisiones.

This content was originally published here.

EL 2 DE JUNIO DEL 2024 VOTA PARA MANTENER

TU LIBERTAD, LA DEMOCRACIA Y EL RESPETO A LA CONSTITUCIÓN.

VOTA POR XÓCHITL