block_img_2
¿Qué hay de nuevo en IA esta semana?
block_img_2
Para vigilarte mejor: se aprueba el uso de reconocimiento facial en la Ciudad de Buenos Aires
#ReconocimientoFacial #Argentina #Ley
Ayer por la mañana la Legislatura de la Ciudad Autónoma de Buenos Aires aprobó con 36 votos afirmativos, 18 negativos y sin abstenciones, una reforma que incorpora el uso de reconocimiento facial de prófugos. Si bien desde el 2019 funcionan en la Ciudad más de 300 sistemas de reconocimiento facial en las calles y estaciones de subtes, la aprobada reforma sobre la Ley 5688 de Seguridad Pública termina de oficializar su uso. 

No solamente múltiples organizaciones se opusieron a la ley (CELS, Vía Libre, Amnistía Internacional, Access Now, DATAS, el Observatorio de Derecho Informático Argentino, entre otras), sino que la semana pasada Human Rights Watch ya denunciaba al gobierno argentino por la falta de seguridad y la violación a los derechos humanos de estos sistemas y el manejo de sus bases de datos. También, la decisión parece ir en camino opuesto a las múltiples ciudades del mundo -como San Francisco, Oakland, Berkeley, Sommerville, Portland, etc.- que prohíben el uso de reconocimiento facial en sus ciudadanos.

Algunas razones que acompañan su prohibición son que: estos sistemas aún cuentan con múltiples errores y con un elevado riesgo de falsos positivos (especialmente en mujeres, niños y personas de color); implican una falta de privacidad, ya que procesan información biométrica de todas las personas que pasan frente a las cámaras; producen un efecto inhibitorio (autocensura o “chilling effect”) debido a la vigilancia constante, especialmente en aquellas personas que emiten discursos críticos contra las autoridades; se basan en una falta de presunción de inocencia ya que el sistema actúa sobre todas las personas para determinar, luego, si somos prófugos o no, entre varios otros.

Ver más

Aprendiendo mucho con pocos datos
#IA #Datos #MachineLearning #FewShotLearning
Una de las limitantes del aprendizaje automático es que es costoso computacionalmente y requiere grandes cantidades de datos y poder de cómputo para poder funcionar correctamente. Por eso, crear modelos que puedan aprender con menos cantidad de ejemplos es un objetivo central. 

En el paper presentado por investigadores de Waterloo en Ontario, se plantea una solución novedosa basada en modelos “few-shot learning” que implican modelos que pueden aprender con solo un pequeño número de muestras. Los investigadores desarrollaron una solución que llamaron “'Less Than One'-Shot Learning”, en la que  el modelo debe aprender una nueva clase a partir de un solo ejemplo, manteniendo la performance de eficacia de modelos de ML basados en grandes cantidades de datos.

Parte del modelo se basa en aprender de un “super ejemplo”, un dato de muestra que destila conjuntos de datos reduciendolos a una mínima expresión. El modelo se basa en un trabajo anterior de investigadores del MIT que como prueba de concepto había comprimido un conocido dataset llamado MNIST a sólo 10 imágenes. Las imágenes no fueron seleccionadas del conjunto de datos originales, sino que fueron cuidadosamente diseñadas y optimizadas para contener una cantidad de información equivalente a la del conjunto completo. Como resultado, con tan solo 10 imágenes, el modelo de IA podía lograr casi la misma precisión que uno entrenado con todas las imágenes del MNIST.
Ver más
Singapur publica una guía de referencia sobre gobernanza y ética de la IA
imagen
#IA #Ética #Gobernanza
Esta semana Singapur lanzó un documento de referencia para guiar a las empresas sobre los aspectos éticos relacionados con el desarrollo y el despliegue de las tecnologías de la inteligencia artificial. El Consejo de Conocimientos sobre Ética y Gobernanza de la Inteligencia Artificial (BoK) tiene el objetivo de contribuir al despliegue "responsable, ético y centrado en el ser humano" de la IA para obtener una ventaja competitiva.

El mismo abarca casos de uso para esbozar los resultados positivos y negativos de la adopción de la IA y examinar el potencial de la tecnología para apoyar un ecosistema "seguro" cuando se utiliza adecuadamente. Recientemente, el Ministro de Comunicaciones de Singapur, subrayó además la necesidad de crear confianza con el uso responsable de la IA para impulsar la adopción y extraer los máximos beneficios de la tecnología. 

"La adopción responsable de la IA puede impulsar la eficiencia de las empresas, facilitar la toma de decisiones y ayudar a los empleados a mejorar sus capacidades para que puedan desempeñar trabajos más enriquecedores y significativos", dijo. "Por encima de todo, queremos construir un entorno de IA progresivo, seguro y de confianza que beneficie a las empresas y a los trabajadores, e impulse la transformación económica".
Ver más
refugiados
Exhibición "Capture" de Mr. Cirio
Revertir la ecuación: activistas utilizan reconocimiento facial en contra de la policía
#ReconocimientoFacial #Activismo #Policía
Si bien países como Argentina continúan utilizando reconocimiento facial (RF) para vigilar a sus ciudadanos, otras ciudades -como San Francisco o Portland-, han tomado la iniciativa de prohibir los usos policiales de esta tecnología. Sin embargo, esta regulación no alcanza a los individuos, quienes al menos en Portland, pueden experimentar con aplicaciones de RF. 

Esto permitió que un residente pueda continuar con su “emprendimiento”: utilizar reconocimiento facial no para controlar a los ciudadanos, sino para que estos controlen a la policía. La iniciativa parte de un activista llamado Howell, que con la ayuda de la plataforma de Google, Tensor Flow, y con una base de datos de imágenes de redes sociales logró crear un modelo de machine learning para identificar a la policía que esconde su identidad en protestas y lograr así mayor transparencia y responsabilidad en su accionar. Algo similar a lo realizado por un grupo de activistas en Hong Kong el año pasado.

Hace ya un tiempo, vemos noticias de empresas o gobiernos que utilizan reconocimiento facial y otras tecnologías para espiar a los ciudadanos. Pero, la misma tecnología puede revertirse y servir como herramienta para que las personas comunes controlen a los grandes jugadores.  Casos como el de Howell nos recuerdan que estas tecnologías son herramientas y que la vigilancia que estas conllevan puede ser para un lado o para el otro. No obstante, el uso de reconocimiento facial sigue siendo predominante en gobiernos y grandes empresas. 
Ver más
var_47
Otras noticias relevantes de la semana:
Curaduría y edición de notas por Micaela Mantegna, Delfina Ferracutti e Iván Kirschbaum.
¿Conocen a algún interesadx en IA? Reenvien este mail para que se puedan SUSCRIBIR AQUÍ
Newsletter parte del área de estudio de Inteligencia Artificial del CETyS
CETyS
Universidad de San Andrés,
Buenos Aires, Argentina.