Científicos crean una remera que vuelve invisible a quien la use

A medida que la tecnología avanza y nuestra sociedad se vuelve más compleja, los países comienzan a implementar sistemas de vigilancia para monitorear a los ciudadanos basadas en algoritmos e inteligencia artificial.

Investigadores de la Universidad del Noreste, el MIT e IBM han diseñado una remera que vuelve indetectable a quien la use para el sistema de reconocimiento facial. La camiseta tiene un parche caleidoscopio de color que hace que quien la porte sea invisible para la inteligencia artificial.

“La camiseta contradictoria funciona en las redes neuronales utilizadas para la detección de objetos”, explica Xue Lin, profesor asistente de ingeniería eléctrica e informática en Northeastern y coautor del artículo científico. Por lo general, una red neuronal reconoce a alguien o algo en una imagen y asigna una etiqueta a eso que reconoce.

“Al encontrar los puntos límite de una red neuronal, los umbrales en los que decide si algo es un objeto o no, Lin y sus colegas han podido trabajar hacia atrás para crear un diseño que puede confundir el sistema de clasificación y etiquetado de la red de inteligencia artificial”, explica Weird, la prestigiosa revista de ciencia.

El equipo pudo identificar las áreas del cuerpo donde agregar ruido de píxeles podría confundir a la inteligencia artificial y volver invisible al usuario.

Sin embargo, los investigadores se encontraron con una dificultad: las remeras se arrugan cuando el usuario se mueve, por lo que el equipo tuvo que tener esto en cuenta. Estos científicos fueron los primeros en tener éxito en la creación de una camiseta diseñada para ser impresa en un material en movimiento. Para hacerlo, usaron lo que Lin llama un «transformador», un método para medir la forma en que se mueve una camiseta y luego mapear eso en el diseño.

A pesar de esto, Lin comenta que es poco probable que veamos estas remeras en el mundo real. “Todavía tenemos dificultades para hacer que funcione en el mundo real porque existe la fuerte suposición de que sabemos todo sobre el algoritmo de detección”, explica. «No es perfecto, por lo que puede haber problemas aquí o allá».

De hecho, los investigadores en realidad no quieren ayudar a que las personas evadan los sistemas de reconocimiento facial. Por el contrario, Lin dice que el objetivo final del equipo es encontrar agujeros en las redes neuronales para que las empresas de vigilancia puedan solucionarlos, en lugar de ayudar a las personas a evitar la detección. «En el futuro, con suerte podremos solucionar estos problemas, para que los sistemas de aprendizaje profundo no puedan ser engañados».

Deja un comentario