Reflexionando sobre la pregunta de Alan Turing sobre la IA (ciberseguridad)
Juan José Carrillo Miranda
Graduado en Criminología y máster en Análisis e Investigación Criminal por la UDIMA.
Recursos Humanos
Alan Turing (23-06-1912 a 07-06-1954) murió a la edad de 41 años. Pese a su corta vida, se le considera como el padre de la inteligencia artificial (IA). Todo gracias a sus contribuciones al campo de la computación, criptografía e IA, siendo el primero en preguntarse si las maquinas pueden pensar, como propuso en su artículo “Computing Machinery and Intelligence” (1950), al realizar la siguiente pregunta: ¿podrá una máquina engañar a un humano haciéndole creer que es también un humano?, con su test de Turing.
No andaba desencaminado al realizar esta pregunta, dado que hoy en día ha llegado la verdadera revolución de la IA a nuestro mundo. Pero nos referimos a un mundo donde las máquinas no pasan por humanos (robots), sino a un lugar donde las máquinas cada vez hacen mejor su labor de procesamiento cognitivo a la hora de engañarnos a los humanos.
Pero en verdad llevamos muchos años con la IA, aunque es ahora cuando más se conoce esta terminología, se ha vuelto más coloquial, aunque la revolución apareció con el cloud y el big data, apareciendo así el maching learning (deep learning, etc.). De lo que realmente se habla a nivel social es cómo nos engañan mediante IA, sin quitar sus virtudes de ayuda a los humanos.
Últimamente han aparecido, y no se suele hablar de ellos como tal, modelos de IA para crear textos (libros), imágenes, vídeos, resolver problemas, pero cómo lo hace ya no es nuevo, lleva años intentando la relación entre las máquinas y los humanos mediante nuestro lenguaje, vista, oído… Para ello se le dan muchos datos y aprende de forma similar a como aprendemos nosotros (imágenes, textos), pero no sabemos cómo lo ha aprendido y el qué aprendió.
Por eso nos comienza a engañar, ya que tienen sesgos a la hora de discriminar entre hombres y mujeres, aunque después sepa que es un sesgo de género, primero te lo da con relación a la palabra escrita. Si le pides que programe código, vemos que comete errores, llegando incluso a fallas de seguridad dentro del código, crea alucinaciones, filtraciones de datos, pensamientos asesinos.
Cada modelo entrenado no es igual a otro (ChatGPT, Bard ahora Gemini, etc.), con lo que son distintos niños con un gran conocimiento, pero sin saberlo aplicar correctamente por el hecho de ser niños. Nos podemos encontrar con cualquier respuesta dependiendo de la pregunta y la forma de realizar dicha pregunta.
Si nos centramos en modelos que crean imágenes/vídeos y no solo textos, como hasta ahora, vemos como nos engañan con lo que llamamos el deepfake, donde nuestra cara aparece con otro cuerpo o hablando cosas que realmente no hemos dicho, apareciendo nuestra cara en videoconferencias y, por ende, engañando a la otra persona. Lo mismo pasa con el clonado de voz gracias a estas inteligencias, que se usan normalmente para engañar a los demás, ya sea vía telefónica, en formato publicidad en vídeos, etc.
Estaríamos ante una suplantación de identidad de una persona, siendo esto solo la punta del iceberg (OpenAi lanza un modelo que crea vídeos con unos pocos comandos), dado que esto va a más mediante humanos sintéticos, como son los personajes de los videojuegos, que podemos personalizar, usados en otros menesteres como asistentes en tiendas, hoteles, sumando un largo etcétera de industrias donde podemos encontrarlos algún día.
De esta forma contestaríamos con un “sí” la pregunta que realizó Alan Turing hace muchos años, a la hora de engañarnos las máquinas, aunque siempre pensando quién está manejando esta IA.