Skip to content

Ojos animatrónicos que centran la mirada en las personas e imita sus movimientos de cabeza y emociones (feliz o triste)

Notifications You must be signed in to change notification settings

gmfv/Roberto-el-robot-que-siente

Repository files navigation

Roberto, el robot que siente

El proyecto consiste en ojos animatrónicos que fijan la mirada en las personas e imitam sus movimientos de cabeza y emociones.

Descripción

Roberto puede:

  • Emitir sonidos de risa al ver sonreír a una persona y sonidos de llanto al detectar que una persona está con cara triste.
  • Imitar el movimiento de inclinar la cabeza al costado.
  • Seguir con la mirada a las personas y girando el cuello (Como haciendo el gesto de "No")

Image text

Videos ilustrativos del funcionamiento

Iniciando

Materiales

  • Raspberry pi +3B
  • Módulo de Cámara para Raspberry pi 1080P HD
  • Adafruit 16-Channel 12 bit PWM/Servo driver
  • Arduino
  • Micro servo motores x4
  • Servo motores de alto torque x3
  • Impresiones 3D de los ojos y sus soportes (Se han utilizado las piezas de James Bruton).
  • Tornillos M3 y M2
  • Parlante pequeño

Image text

  • Impresión del porta-cámara (Diseño propio. Incluido en el proyecto)

Image text Image text Image text

Prerequisitos

  • Descargar el modelo de marcadores faciales de esta página. El archivo se llama shape_predictor_68_face_landmarks.dat, colocarla en la misma carpeta que el código de video_facial_landmark.py

Ejecutar el programa (Windows)

  • Clonar el repositorio
  • Abrir el command prompt en la carpeta y ejecutar la siguiente línea: python video_facial_landmark.py --shape-predictor shape_predictor_68_face_landmarks.dat --picamera 1

Autores

About

Ojos animatrónicos que centran la mirada en las personas e imita sus movimientos de cabeza y emociones (feliz o triste)

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages