Dicen que una imagen vale más que mil palabras, pero ¿mil palabras valen una imagen? El creador y desarrollador Diego Trujillo Pisanty buscó descubrir con su frambuesa pi-alimentado cámara ciega proyecto. En lugar de usar una lente para capturar la luz y crear una imagen, escucha el sonido y crea una aproximación de lo que podría estar a su alrededor en función del audio detectado.
El dispositivo funciona de manera similar a una cámara normal, ya que apunta la cámara a lo que desea capturar y presiona un botón para generar una imagen. En este caso, sin embargo, cuenta con una bocina gigante en la parte frontal que sirve para ayudar a amplificar la captación de sonidos. Los usuarios deben apuntar este cuerno en la dirección de lo que quieren capturar antes de presionar el botón. La cámara analiza el audio a través de un filtro de IA y genera una imagen.
Según Pisanty, desarrolló una red neuronal artificial personalizada (o ANN) solo para este proyecto. Entrenó a la IA con sus propios modelos a partir de un conjunto de videos tomados en la Ciudad de México.
La plantilla se creó tomando cada cuadro de video y rastreándolo con el último segundo de audio. Esto ayudó a construir una asociación de sonido y video que el sistema puede usar para crear imágenes. Debido a que fue entrenado de esta manera, todo lo que crea se basa libremente en imágenes del centro de la Ciudad de México.
Imagen 1 de 4
(Crédito de la imagen: Diego Trujillo Pisanty)(Crédito de la imagen: Diego Trujillo Pisanty)(Crédito de la imagen: Diego Trujillo Pisanty)(Crédito de la imagen: Diego Trujillo Pisanty)
Para este proyecto, Pisanty está utilizando un módulo Raspberry Pi 3B. Sin embargo, sería posible recrearlo usando una Raspberry Pi 4. Siempre que Pi pueda manejar Tensorflow, debería funcionar. La cámara también tiene una pequeña pantalla que sirve como una especie de visor. Permite a los usuarios saber cuándo se están procesando las imágenes y proporciona una vista previa de las imágenes generadas. Todo está alojado dentro de una carcasa personalizada impresa en 3D.
El modelo de IA utilizado para entrenar la cámara ciega se creó con Python 3. Está diseñado para funcionar con Tensorflow 2 y se ejecuta en Raspberry Pi con TFLite. Si desea recrear este proyecto de Raspberry Pi o simplemente ver cómo funciona, vea el video compartido por Pisanty en YouTube y lea más sobre el proyecto en su sitio web.