Tecnología e innovación

La IA Transparencia Paradoja


Jorg Greuel/Getty Images

En los últimos años, los académicos y practicantes han llamado para una mayor transparencia en el funcionamiento interno de los modelos de la inteligencia artificial, y por muchas buenas razones. La transparencia puede ayudar a mitigar los problemas de la justicia, la discriminación, y la confianza de todos los que han recibido mayor atención. Los nuevos de Apple tarjeta de crédito de negocios ha sido acusado de sexista modelos de préstamo, por ejemplo, mientras que Amazon desguace de IA herramienta para la contratación después de descubrir que discriminaba a las mujeres.

al mismo tiempo, sin embargo, cada vez es más claro que las revelaciones sobre AI plantear sus propios riesgos: las Explicaciones pueden ser hackeado, la liberación de la información adicional puede hacer que la IA más vulnerables a los ataques, y divulgaciones que podemos hacer a las empresas más susceptibles a demandas legales o de regulación de la acción.

Llame AI “transparencia paradoja”—, mientras que la generación más información acerca de la IA podría crear grandes beneficios, también pueden crear nuevos riesgos. Para navegar por esta paradoja, las organizaciones deben pensar cuidadosamente acerca de cómo se están gestionando los riesgos de la IA, la información que se está generando sobre estos riesgos, y cómo esa información es compartida y protegido.

Algunos de los estudios recientes que ilustran estas tendencias. Vamos a empezar con un trabajo de investigación por parte de investigadores de la universidad de Harvard y la Universidad de California, Irvine, publicado el mes pasado. El documento se centró en cómo las variantes de CAL y SHAP, dos de los más conocidos de las técnicas utilizadas para explicar negro llamado cuadro de algoritmos, podría ser hackeado.

Para ilustrar el poder de la CAL, el 2016 papel anunciando la herramienta explicó cómo una de otra manera incomprensible imagen clasificadora reconocida diferentes objetos en una imagen: una guitarra acústica fue identificado por el puente y partes del diapasón, mientras que un Labrador Retriever fue identificado por rasgos faciales específicos en el lado derecho de el perro de la cara.

la CAL, y la explicable AI movimiento más amplio, han sido elogiados como los avances capaz de hacer opaco algoritmos más transparente. De hecho, el beneficio de explicar IA ha sido ampliamente aceptado precepto, promocionada por tanto académicos y tecnólogos, incluyéndome a mí.

Pero el potencial para nuevos ataques en LIMA y SHAP destaca un alto a la baja. Como el estudio muestra, las explicaciones pueden ser intencionalmente manipulada, que conduce a una pérdida de confianza no sólo en el modelo, pero en sus explicaciones demasiado.

Y no solo en esta investigación, que demuestra el potencial de los peligros de la transparencia en la AI. A principios de este año, Reza Shokri y sus colegas se ilustra cómo exponer información acerca de la máquina-algoritmos de aprendizaje puede hacerlos más vulnerables a los ataques. Mientras tanto, los investigadores en la Universidad de California, Berkeley, han demostrado que la totalidad de los algoritmos pueden ser robados basada simplemente en sus explicaciones solo.

Como la seguridad y la privacidad de los investigadores se centran más energía en AI, estos estudios, junto con un anfitrión de otros, apuntan a la misma conclusión: más de un modelo creadores revelar sobre el algoritmo, más daño un actor malicioso puede causar. Esto significa que la liberación de la información acerca de un modelo de funcionamiento interno de realidad, puede disminuir su seguridad o exponer una empresa con más responsabilidad. Todos los datos, en definitiva, conlleva riesgos.

La buena noticia? Las organizaciones tienen mucho enfrenta la transparencia de la paradoja en la esfera de la privacidad, la seguridad, y en otros lugares. Ellos solo necesitan actualizar sus métodos para la IA.

Para empezar, las empresas de intentar utilizar la inteligencia artificial necesidad de reconocer que hay costos asociados con la transparencia. Esto no es, por supuesto, para sugerir que la transparencia no vale la pena conseguir, simplemente, que también plantea una serie de inconvenientes que deben ser plenamente comprendido. Estos costos deben ser incorporados en un riesgo más amplio del modelo que rige la forma de comprometerse con la explicación de los modelos y la medida en que la información sobre el modelo está disponible para los demás.

en Segundo lugar, las organizaciones también deben reconocer que la seguridad es una preocupación cada vez mayor en el mundo de la IA. Como AI es adoptado más ampliamente, más vulnerabilidades de seguridad y errores de los que seguramente va a ser descubierto, como mis colegas y yo en el Futuro de la Privacidad Foro argumentado recientemente. De hecho, la seguridad puede ser uno de los más grandes a largo plazo de las barreras a la adopción de la IA.

la Última es la importancia de colaborar con los abogados tan pronto y tan a menudo como sea posible cuando la creación y la implementación de la IA. Involucrando a los departamentos legal puede facilitar un abrir y legalmente entorno privilegiado, permitiendo a las empresas a fondo de la sonda de sus modelos para cada vulnerabilidad imaginable sin la creación de pasivos adicionales.

de Hecho, esto es exactamente por eso que los abogados operar bajo el secreto profesional, lo que le da la información que obtienen un estatus de protección, incentivar a los clientes para comprender sus riesgos en lugar de ocultar cualquier potencial malas acciones. En materia de ciberseguridad, por ejemplo, los abogados se han vuelto tan involucrado que es común que los departamentos legal para administrar las evaluaciones de riesgo e incluso de respuesta a incidentes de actividades después de una violación. El mismo criterio debe aplicarse a la IA.

En el mundo de la analítica de datos, es con frecuencia se supone que más datos, mejor. Pero en la gestión de riesgo, los datos en sí es a menudo una fuente de responsabilidad. Que está comenzando a ser cierto para la inteligencia artificial así.

This content was originally published here.

EL 2 DE JUNIO DEL 2024 VOTA PARA MANTENER

TU LIBERTAD, LA DEMOCRACIA Y EL RESPETO A LA CONSTITUCIÓN.

VOTA POR XÓCHITL