sistema de vision artificial para el …repository.udistrital.edu.co/bitstream/11349/8339/1... ·...

40
1 SISTEMA DE VISION ARTIFICIAL PARA EL CONTROL DE PROTOTIPOS DE VEHICULOS NO TRIPULADOS EDWAR ARMANDO ROMERO GARZON YEFERSON SOTELO ORTIZ UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD TECNOLÓGICA TECNOLOGÍA MECÁNICA BOGOTÁ 2016 SISTEMA DE VISION ARTIFICIAL PARA EL CONTROL DE PROTOTIPOS DE VEHICULOS NO TRIPULADOS EDWAR ARMANDO ROMERO GARZON YEFERSON SOTELO ORTIZ TRABAJO DE GRADO PARA OPTAR POR EL TÍTULO DE TECNÓLOGO MECÁNICO DOCENTE DIRECTOR: ING. JOHN ALEJANDRO FORERO CASALLAS GRUPO DE INVESTAGACION: DISING UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD TECNOLÓGICA TECNOLOGÍA MECÁNICA BOGOTÁ

Upload: buidieu

Post on 02-Oct-2018

220 views

Category:

Documents


0 download

TRANSCRIPT

1

SISTEMA DE VISION ARTIFICIAL PARA EL CONTROL DE PROTOTIPOS

DE VEHICULOS NO TRIPULADOS

EDWAR ARMANDO ROMERO GARZON

YEFERSON SOTELO ORTIZ

UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

FACULTAD TECNOLÓGICA

TECNOLOGÍA MECÁNICA

BOGOTÁ

2016

SISTEMA DE VISION ARTIFICIAL PARA EL CONTROL DE PROTOTIPOS

DE VEHICULOS NO TRIPULADOS

EDWAR ARMANDO ROMERO GARZON

YEFERSON SOTELO ORTIZ

TRABAJO DE GRADO PARA OPTAR POR EL TÍTULO DE TECNÓLOGO

MECÁNICO

DOCENTE DIRECTOR: ING. JOHN ALEJANDRO FORERO CASALLAS

GRUPO DE INVESTAGACION: DISING

UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

FACULTAD TECNOLÓGICA

TECNOLOGÍA MECÁNICA

BOGOTÁ

2

2016

INTRODUCCIÓN

En los últimos años la industria ha tenido una transformación muy importante debido a

la necesidad de satisfacer a un cliente, el cual cada vez es más difícil de sorprender, por

lo que fue necesario implementar procesos de automatización en el desarrollo de la

producción. Estos procesos se han visto mejorados con el tiempo, debido principalmente

al gran auge y desarrollo tecnológico que se da en la utilización de vehículos no

tripulados y su integración en diversos campos.

Este proyecto surgió debido a la necesidad de mejorar los procesos de automatización,

hacerlos más rápidos y económicos. Trabajando en un entorno pequeño comparado con

las grandes celdas de manufactura que existen en la industria, pero solucionando

problemas importantes como lo es el desplazamiento aleatorio entre las estaciones.

En esta monografía, se propone la implementación de un sistema de visión artificial para

el control de vehículo no tripulados, a partir de esto, se explica el reconocimiento

tecnológico y operativo de la plataforma móvil; se exponen los componentes necesarios

para la utilización del sistema de visión artificial. se presenta el sistema de visión artificial

y el algoritmo de control. Finalmente, se muestran los resultados de la puesta en marcha

del sistema.

3

1. PLANTEAMIENTO DEL PROBLEMA

Para la industria en general, y las actividades o aplicaciones de la vida civil, los últimos

años han sido de gran transformación y avance, debido principalmente al gran auge y

desarrollo tecnológico que se ha venido dando en la utilización de vehículos no

tripulados y su integración en diversos campos de nuestras vidas, lo que ha cambiado

ampliamente los procesos de producción y tareas en gran parte del mundo. Sin

embargo, países no industrializados y de bajos recursos económicos, aún son ajenos al

gran cambio tecnológico que conlleva a la posibilidad de mejorar significativamente

muchas tareas y procesos que bien podrían ser resueltas con mayor efectividad y sin

poner en peligro la integridad física de las personas que las desempeñan. En países

como los Estados Unidos o Rusia, desde hace un largo tiempo han comenzado a operar

nuevos sistemas de defensas nacionales utilizando vehículos no tripulados apoyados

en las más modernas tecnologías cuyos países son dominantes en este sector y quienes

constantemente marcan pautas de desarrollo en dicha área [1].

Surgen entonces los cuestionamientos: ¿Cuál es la posibilidad de generar sistemas de

control y desplazamiento para vehículos no tripulados terrestres sin tener grandes

recursos económicos? y ¿Cómo lograr que dichos sistemas de control y desplazamiento

se puedan aplicar a variados procesos de producción obteniendo resultados eficientes

especialmente en las celdas de manufactura flexible?

Fundamentados en este contexto, en el presente proyecto se investigará en qué grado

se puede desarrollar un sistema de control y desplazamiento para vehículos no

tripulados terrestres, el cual no conlleve a la utilización de grandes recursos económicos

pero buscando resultados eficientes, además de realizarse una amplia investigación

sobre los distintos métodos de control y desplazamiento en los vehículos no tripulados,

con el fin de escoger alguno, el cual pueda suplir satisfactoriamente y llegue a cumplir

un papel deseable basados en sistemas de producción como lo son las celdas de

manufactura. Para lo dicho se contará con la ayuda de software de ingeniería que pueda

contribuir a la elaboración del sistema de control y desplazamiento con aplicación de

estos en vehículos tipo Lego Mindstorm®, evaluando dichos resultados y posibles

aplicaciones en los procesos industriales, para así promover su aplicación y estudio de

este tipo de tecnología.

2. ESTADO DEL ARTE

4

Como es bien sabido, los vehículos no tripulados se refieren generalmente a cualquier

tipo de vehículo que se pueda conducir sin un piloto en el interior de este. Los hay tanto

aéreos como terrestres normalmente llamados por sus siglas en inglés UGV y UAV

(Unmanned Ground Vehicle y Unmanned Aerial Vehicle) respectivamente. Por ejemplo,

Packbots®, robots para uso por parte de policías y militares o Roomba®, un aspirador

doméstico robótico, son vehículos terrestres no tripulados fabricados por

iRobotCorporation®. Los vehículos no tripulados básicamente son accionados por un

operador usando algún dispositivo controlador a una distancia relativa de dicho vehículo.

Además, los vehículos no tripulados pueden ser accionados a lo largo de una trayectoria

predeterminada de manera automática. Esta trayectoria puede ser almacenada en un

ordenador o puede ser comunicada directamente al vehículo no tripulado [2].

Se abarcará principalmente con referencias internacionales donde se han realizado la

mayor cantidad de estudios: el caso de la construcción de un robot no tripulado de bajo

costo desarrollado por Centre forIntelligentSystemsResearch, en Geelong, Australia, en

el cual desarrollaron un sistema de desplazamiento del robot OzTug que requiere seguir

una trayectoria predefinida mientras se mantiene una velocidad de avance especificada

por un usuario, donde se basaron en un sistema de control de visión de lógica difusa

que les permitió realizar un seguimiento de las rutas predefinidas buscando solución al

desplazamiento del vehículo en una gran gama de escenarios, donde la utilización de

entornos virtuales mediante Webots [3] dio la facilidad a los investigadores de evaluar

rápidamente configuraciones propuestas sin la necesidad de crear prototipos físicos,

dando como resultado un equilibrio entre el desarrollo óptimo del vehículo y costos [4].

Se llevan a cabo simulaciones durante las cuales el robot realizó las trayectorias

ejecutadas comportándose de manera que sigue la trayectoria predefinida.

Por la misma vía pero enfocado a otro tipo de metodología y dando lugar a nuevas

soluciones, se promovió en la NationalUniversity of Sciences and Technology (NUST)

ubicada en Rawalpindi, Pakistán, una novedosa solución para la mayor tarea en un

sistema de transporte inteligente la cual es el control de dirección autónoma, sin más,

se abordó de manera precisa y eficiente el control de los vehículos no tripulados

mediante la incorporación de un algoritmo muy conocido Ant-Miner (cAnt-Miner), que es

adaptado de AntColonyOptimization [5], la singularidad del algoritmo propuesto se

encuentra en su capacidad de dirigir con precisión el vehículo en caminos estructurados

y en caminos no estructurados en tiempo real, sin necesidad de un meticuloso cálculo.

El algoritmo utiliza primero los bordes de carretera para evaluar la dirección de la

trayectoria a través de la clasificación mediante cAnt-Miner. Posteriormente, se conduce

el vehículo de acuerdo con la particular dirección utilizando un controlador de lógica

difusa. La sinergia del algoritmo evolutivo, cAntMiner, para el desarrollo de la trayectoria

con el control de lógica difusa permite dirección autónoma, con alta eficacia. La

metodología del algoritmo utilizado se aventaja con respecto a otros algoritmos que,

aunque han producido prometedores resultados, se han convertido computacionalmente

caros para la aplicación en tiempo real o el compromiso en la precisión [6]. Además de

eso, algunos de los sistemas se basan en una integración de sensores altamente

complejos.

Por otro lado, uno de los grandes avances en los vehículos no tripulados son los

llamados vehículos guiados automáticamente o AGVs por sus siglas en inglés

5

(Automated Guided Vehicles), estos sistemas requerían una serie de estructuras para

su funcionamiento como lo podrían ser cables, por lo que necesitaban rutas

preprogramadas, dificultando su posible modificación o expansión de la celda, es decir,

siendo inflexibles e ineficiente. Esta preocupación llevó a que se hicieran avances en

esta área, como la que hicieron unos estudiantes de la University of Ontario Institute of

Technology, en Oshawa, Ontario, en el cual desarrollaron un sistema para el control de

múltiples vehículos autónomos usando robots Lego Mindstorms® [7], logrando unos

dispositivos de control y unos protocolos de comunicación muy eficientes.

Ellos definieron el protocolo en el cual indicaban que iba a controlar el PC y que iba a

controlar el AGV. Así para realizar una trayectoria el PC necesita el nodo de ubicación

del AGV (el PC envía un mensaje al vehículo y este le responde con la ubicación actual),

así como el nodo de destino, una vez teniendo estos dos puntos el PC usa un algoritmo

para determinar la ruta que debe tomar el AGV y le envía la orden al AGV. Una vez el

vehículo recibe la orden sigue las acciones necesarias para llegar al nodo requerido en

la distancia más corta posible. Al tener varios AGV y un trabajo, el PC mira cuantos

están ocupados y cuantos desocupados, luego con los desocupados determina su

posición actual y analiza la ruta de cada uno de ellos al trabajo requerido, por ultimo elije

el que tenga la ruta más corta [8].

Siguiendo con el sistema de control de los UGVs, los estudiantes de Department of

Mechanical Engineering, Hanyang University, de Seul, Korea, desarrollaron un prototipo

de robot de transporte no tripulado para su aplicación en la construcción. El robot

transporta materiales de construcción después de una trayectoria de referencia pre-

configurada. La configuración del prototipo fue considerada en tres partes: la trayectoria

del vehículo, el sistema de control y un sistema multisensor, donde el sistema de

sensores del robot móvil fue considerada como la parte más importante pues esta influye

en el desarrollo de las anteriores, y a su vez se compone de tres partes. En primer lugar

están los codificadores de información de la odometría o el estudio de la estimación de

la posición de vehículos con ruedas durante la navegación, en segundo lugar es utilizado

una IMU (Sistema de Medición de Inercia) el cual es el componente principal de los

sistemas de navegación inercial usados en aviones, naves espaciales, buques y misiles

guiados entre otros. En este uso, los datos recolectados por los sensores de una IMU

permiten a un computador seguir la posición del aparato, usando un método conocido

como navegación por estima con el fin de proporcionar un ángulo de partida sin errores

de acumulación durante el desplazamiento del vehículo. El tercero es un sensor

ultrasónico para evitar obstáculos, el cual se subdivide en seis sensores de sonar (o

ultra sensores sónicos) para evitar obstáculos. Si uno de los sensores de sonar lee un

objeto que está más cerca de 30 cm, el robot de transporte se detiene temporalmente.

Con dicho prototipo los autores concluyeron que para describir un sistema de

navegación el uso de sensores resulta altamente útil y eficaz [9], dejando ver su

viabilidad frente a la determinación de trayectorias utilizando sistemas de

posicionamiento global (GPS) el cual no es de mayor complejidad y no es objeto de

estudio.

Uno de los principales desafíos con vehículos no tripulados móviles es su localización y

posicionamiento en ambientes interiores. La solución a dicho problema fue dada en

6

IDMEC/IST, Institute of Mechanical Engineering, situado en Lisboa, Portugal, en donde

se desarrolló un sistema en el cual se consideró que la navegación y los cambios de

posicionamiento en un UGV no debían representar grandes problemas. El sistema se

aventaja en la manera en que el robot es capaz de encontrar su posición sin necesidad

de cables a tierra, puntos de referencia o láser balizas. El robot utiliza imágenes

obtenidas desde su techo para calcular su posición y navegar entre las coordenadas.

Como se dijo anteriormente, la principal contribución es la ausencia de servicios

externos para resolver en el AGV tal problema de localización, lo que permite la rápida

configuración. El desarrollo del trabajo lo basaron en la metodología de la utilización de

mosaicos visuales para construir simultáneamente un mapa y estimar la posición. Para

lograr ese objetivo les fue necesario superar los tres pasos siguientes: la cartografía o

visión general del medio, la localización y la navegación.

La localización del robot la realizaron suponiendo que el robot está en el centro de la

imagen. En realidad, en los ambientes interiores, los autores utilizaron un robot con una

cámara apuntando hacia el techo. Prestando atención al hecho de que el robot navega

en el suelo, se planificó la posición del robot la cual corresponde al centro de la imagen

actual en el mapa global construido iterativamente. La orientación de la cámara es

similar a la minerva robot [10], donde la cámara también está apuntando al techo con el

fin de alcanzar los mejores resultados. Mediante programación en Matlab®, se

procesaron imágenes y videos para la obtención de un mosaico general, el cual les

permitió crear el mapa del entorno en el que el robot opera y desarrolla su navegación

y desplazamiento [11].

Así mismo, los estudiantes de la University of Tokyo, en Tokyo, Japón, desarrollaron un

sistema de localización de navegación de un vehículo agrícola muy similar al GPS, pero

con la ventaja que sirve tanto en lugares exteriores como en interiores. Al usarlo en un

campo agrícola tienen la ventaja de que es un entorno fijo, es decir, sus áreas de trabajo

no cambian, por lo tanto se pueden configurar unos puntos de referencia en las esquinas

del campo.

Así, el sistema está constituido por un robot móvil que está equipado con una cámara

omnidireccional (proporcionan una vista de 360 grados) que suministra información

suficiente, un procesador de imagen, cuatro puntos de referencia y un computador. El

sensor de visión detecta los puntos de referencia y se los envía al PC para que el

determine la posición absoluta de la cámara y así del vehículo. Con una posible

aplicación en cualquier área de trabajo como en la planificación de una ruta y además

con capacidad de evitar obstáculos satisfactoriamente [12]. Este sistema es más

económico que un sistema de GPS, además es muy eficaz gracias a su pequeño margen

de error.

En el 2011, se realizó un sistema en el cual se controlan y se coordinan remotamente

varios robots unos detrás de otros, parecido a un enjambre. Esto lo desarrollo la

University of Patras, en Rio, Grecia, y se basaron en el control del error dinámico, que

es el encargado de controlar la trayectoria de cada robot. Para demostrar el sistema

7

usaron los kits educativos de los Lego Mindstorms® NXT, que fueron controlados desde

una estación base remota de red inalámbrica con múltiples canales bluetooth.

Para comenzar, partieron del problema simple que era un enjambre de dos robots uno

líder y otro seguidor, en el cual cada robot del enjambre se modela como un vehículo no

holonómico (ya que no es capaz de cambiar su dirección instantáneamente, sino que

tiene que realizar varias maniobras previas para desplazarse en el sentido lateral).

Luego, tomaron en cuenta el error dinámico basado en el error de la trayectoria del

vehículo líder, logrando así, con un algoritmo reducir los errores de desviación y obtener

un seguimiento de la trayectoria con una precisión aceptable. Con esto, la trayectoria

del robot líder será la señal de referencia del vehículo seguidor y tendrá un error de

desviación mucho mayor, por lo tanto, se usan distintos parámetros y se aumenta o se

disminuye la velocidad de los seguidores para reducir al mínimo los errores de

trayectoria [13].

Un aporte muy importante en el sistema de visión (cámaras panorámicas) de los

vehículos no tripulados se puede demostrar en el trabajo realizado en Fraunhofer

Institute for Intelligent Analysis and InformationSystems (IAIS), St. Augustin, Alemania,

donde se evidencia el interés en aumentar la seguridad y la eficiencia en el control de

vehículos autónomos, sobre todo en las tareas de inspección y operaciones de rescate,

las cuales conllevan a una interacción hombre-máquina muy eficaz y que requiere de un

fácil manejo. Los autores llegaron a la conclusión de que la percepción del medio

ambiente representa un problema fundamental en el campo de visión para un vehículo

no tripulado, por tanto, el uso de sistemas de visión ofrecen un panorama general del

paisaje, los cuales proporcionan información visual para el control y desplazamiento de

los vehículos no tripulados [14]. Al final demostraron que con los sistemas de visión se

pueden construir mapas en línea y conociendo la información espacial y sus

características, éstas se transformarán en puntos de referencia los cuales representarán

un mapa del medio donde dichos vehículos se desplazarán.

Siguiendo la misma tónica y ahora poniendo en consideración la situación de los

estudios de vehículos no tripulados en la industria nacional, se deja entrever a

continuación el uso de estos dispositivos como apoyo y refuerzo para las actividades de

las Fuerzas Militares de Colombia en su lucha contra el terrorismo, en particular la

Fuerza Aérea de Colombia pues se utilizan vehículos no tripulados de tipo aéreo.

Los aviones no tripulados se utilizaron en Colombia para detectar movimientos de las

FARC y cargamentos de drogas al menos desde el 2006, según un cable de WikiLeaks®

divulgado por el diario El Espectador y la revista Semana. Los equipos usados en el país

en esa ocasión, según describe el cable, eran ScanEagle® con capacidad de trasmitir

en tiempo real imágenes mientras sobrevuela su objetivo.

Con apenas 1,2 m de largo y 3 m de extensión de sus alas, el modelo usado en Colombia

era demasiado pequeño para ser visto o escuchado al volar por encima de los 3.000

8

pies, sin embargo, el zoom de su cámara a esa altura divisa con claridad vehículos y

estructuras en tierra. Ese modelo sería al parecer uno desarrollado por la compañía

aeronáutica estadounidense Boeing.

El cable agregó que consideraba que esos modelos eran de costos bajos de operación

porque el UAV, con unos 39 kg de peso, podía volar 15 horas continuas con apenas 5,5

litros de combustible y es operado desde tierra con un control manual remoto y un

teclado [15].

Además, para llevar a cabo nuestro proyecto vamos a usar unos vehículos Lego

Mindstorm® que tiene disponible la Universidad, y para obtener unos óptimos resultados

necesitamos aprender a manejarlos. Un miembro de la IEEE, realizó tres laboratorios

[16] acerca de los sistemas de control, basándose en los vehículos Lego Mindstorm®,

ya que son unos robots relativamente económicos y con la característica que presenta

una interfaz por cable o inalámbrico entre el PC y los distintos componentes del vehículo,

presentando así una interacción en tiempo real entre el sistema y el software. Los tres

laboratorios diseñados son: el primero es un modelado experimental del sistema físico,

es decir, del sistema motor Lego; el segundo es el diseño de control del sistema físico;

y el tercero es el control del estado-espacio y el diseño de los cálculos para el sistema

físico. Además unos estudiantes de la University of Central Florida, en Orlando,

implementaron una teoría de control de PID (Proporcional Integral Derivativo-

Mecanismo de control por retroalimentación) básico en el NXT (Lego Mindstorm®) a

través de una interfaz gráfica usando Ni Labview®

[17].

En este contexto cabe anotar como ítems importantes: en primer lugar que estos

estudios referenciados en cuanto a control y desplazamiento de vehículos no tripulados

y sus diversas aplicaciones han ido en gran aumento durante los últimos años,

especialmente en países industrializados donde se ha demostrado el gran potencial útil

que se puede obtener de la utilización de dichos vehículos, y sin embargo aplicaciones

de este tipo abordadas en nuestro panorama nacional aún son muy escasas y poco

productivas, evidenciando que hay gran viabilidad en el desarrollo en estos campos de

la tecnología en los cuales se puede explorar, con un alto grado la posibilidad de obtener

resultados satisfactorios e innovadores; y en segundo lugar, se deja a luz visible, como

consecuencia de estudios y trabajos ya realizados en el exterior, la posibilidad de

desarrollar sistemas de control y desplazamiento fáciles y de bajos costos, lo cual sería

de gran utilidad poder llevar la aplicación a la industria de una manera eficiente y

económica, lo que nos deja una interesante aplicación enfocada en el desarrollo del

control y desplazamiento de vehículos no tripulados, especialmente en los Lego

Mindstorms®.

Otro ejemplo que se puede analizar para nuestra investigación es lo realizado por unos

estudiantes de ingeniería electrónica de la Universidad Técnica Checa en Praga, donde

utilizando un vehículo LEGO MINDSTORMS NXT que debía ser capaz de seguir una

línea recta marcada en el suelo y al mismo tiempo medir la distancia con el vehículo en

frente de ella, describieron el modelo de la dinámica de un pelotón de vehículos. Los

vehículos lograron esto de la siguiente manera: Un sensor mide la luz reflejada por el

9

piso hasta un nuevo sensor, lo que le da al vehículo una capacidad de viajar a lo largo

de una línea recta. El vehículo está impulsado por dos motores NXT, estos dos motores

son controlados individualmente, lo que permite hacer pequeños ajustes en la dirección

del movimiento del vehículo, mediante el control de los voltajes aplicados a ellos. Un

codificador óptico rotativo está construido en el motor NXT, que proporciona la velocidad

real del motor. Todo el vehículo es propulsado por una batería recargable de 9V.

La comunicación entre vehículos se realiza mediante la tecnología Bluetooth. El ladrillo

NXT contiene un chip de CSR BlueCoreTM4 permitiendo que el ladrillo para conectar

hasta tres dispositivos Bluetooth en una piconet. Hay una limitación tecnológica de

Bluetooth que permite que sólo 7 esclavos para ser conectados a un maestro en una

piconet. Por lo tanto, la difusión por el líder de todos los demás vehículos a la vez es

imposible. La comunicación en el pelotón se realiza como una interconexión en cadena

de pico redes, cada vehículo está conectado a la parte delantera del vehículo como un

esclavo y el vehículo siguiente como un maestro. Al comienzo de cada transmisión de

datos, un número de control que se envía asegura que el receptor es informado que la

transmisión anterior a acabado [18].

Por último, resulta necesario resaltar que este proyecto es la continuación de un trabajo

realizado por unos estudiantes de Tecnología Mecánica de la Universidad Distrital, en

el cual buscaban mejorar el proceso de la celda de manufactura flexible HAS 200, ellos

desarrollaron su proyecto usando el Kit de robótica educacional de Lego® Mindstorm®

NXT, constituyeron la comunicación entre el vehículo NXT y el PC vía inalámbrica a

través de Bluetooth, estableciendo una conexión maestro (PC) y esclavo (Vehículo). En

este proyecto se utilizó un sistema de visión artificial que consiste en analizar un área

determinada, donde se detectan los elementos a considerar como son los puntos de

paradas, el vehículo NXT y el objeto como obstáculo.

La representación del entorno de navegación del vehículo NXT se basó en el medio

altamente automatizado FMS HAS 200® que permite reproducir y emular el

funcionamiento de una fábrica real, cada estación integra un tramo de cinta

transportadora, lo que permite una gran flexibilidad en la conexión entre estaciones. La

cinta funciona en un solo sentido y sin la posibilidad de omitir una estación durante el

trayecto, lo que genero la necesidad de este proyecto, pues se buscaba que la FMS

HAS 200 fuera capaz de saltar a cualquier estación (usando el algoritmo de

programación) sin tener que seguir la secuencia estándar (sentido horario).

En el entorno de navegación se establecieron puntos específicos, éstos hacen referencia

a la zona de llegada de un producto en cada una de las estaciones de la FMS HAS

200®. Estos puntos se utilizan como origen y destino principal del vehículo NXT, las

imágenes se obtienen por medio de un dispositivo de captación de imagen, en este caso

una cámara USB web.

A partir de la necesidad de interactuar en tiempo real el sensor de visión y el vehículo

NXT, se realizó el procesamiento de la imagen mediante el software VBAI®. Además, el

control del vehículo NXT y la interfaz de usuario se realizan mediante el software

LabVIEW® 2011.

10

Una vez que el vehículo NXT encuentra el obstáculo no tiene la posibilidad de evadirlo,

ya que las acciones que se programaron no permiten que el vehículo sepa en qué

dirección se encuentra el obstáculo, por lo tanto, se decide que se detengan los motores

si el obstáculo se encuentra dentro de los límites establecidos.

Como vemos este trabajo hace un primer acercamiento a la visión artificial y a los

vehículos Lego®, abordando la metodología que se necesita para implementar un

sistema automatizado de visión artificial para el control de vehículos no tripulados, pero

queda entredicho que aún falta mucho camino por recorrer [19].

3. OBJETIVOS

3.1. OBJETIVO GENERAL

Implementar un sistema automatizado de visión artificial para el control simultáneo de

tres prototipos de vehículos terrestres no tripulados.

3.2. OBJETIVOS ESPECIFICOS

• Definir la mejor alternativa entre las plataformas móviles existentes en la UD.

• Reconocer tecnológica y operativamente la plataforma móvil seleccionada.

• Evaluar los distintos medios de transmisión de información existentes para vehículos

no tripulados.

11

• Seleccionar el sistema de visión artificial acorde a las condiciones de trabajo.

• Implementar la plataforma de comunicación para la totalidad de los componentes del

sistema.

• Programar el (los) algoritmo(s) de control requerido(s) para el funcionamiento del

sistema.

• Implementar el sistema de control por visión para mínimo tres prototipos de

vehículos no tripulados.

• Adelantar el correspondiente análisis financiero del proyecto.

4. PROCESOS DE AUTOMATIZACIÓN

Un proceso de automatización se puede definir como una serie de acciones sucesivas

que dan lugar a una secuencia continua, y en esta la mano del hombre no está

involucrada. Los procesos de automatización son cada vez más comunes en la vida

cotidiana, razón que ha llevado a generar controversia en que tan positiva es, pues estos

han llevado a grandes adelantos que han mejorado el estilo de vida del hombre, pero a

su vez, genera gran desempleo, puesto que, las maquinas pasan a hacer el trabajo que

antes hacían las personas.

La automatización se ve principalmente relacionada con las industrias manufactureras y

de procesos. La industria manufacturera se caracteriza por sus máquinas movidas por

control numérico ayudadas por un ordenador como núcleo de sistema de fabricación

flexible. En esta industria se evidencia el uso de estaciones robotizadas que permiten

gran calidad en un entorno competitivo. El principal reto que afronta la automatización

en este tipo de industria es establecer tareas a las máquinas, disposición de la planta,

sistemas flexibles que fabriquen diferentes productos, etc. Para la industria de procesos,

12

como la cementera, farmacéutica, entre otras. En estas industrias se destacan las

aplicaciones de logaritmos de control avanzado, o la formación de operarios expertos

en las salas de control mediante simuladores. Cabe destacar, que tanto la industria

manufacturera, como la industria de procesos realizan grandes esfuerzos en la

optimización del proceso, ya sea, para mejorar la calidad o tratando de reducir costos

(Ponsa & Granollers, 2015).

4.1. CELDAS DE MANUFACTURA FLEXIBLE (FMC)

Las celdas de manufactura flexible corresponden a un conjunto de componentes

electromecánicos, que trabajan de manera coordinada para conseguir la fabricación en

serie de un producto. El término flexible se refiere a que la celda no está restringida a

solo un tipo de proceso, sino que puede acomodarse fácilmente a cualquier producto,

usualmente con productos de las mismas características físicas y dimensionales.

Los beneficios de una FMC son muchos, como el control de la producción que se puede

hacer, la reducción en el tiempo del proceso y evitar el movimiento innecesario de la

materia prima. [20]

4.2. VISIÓN ARTIFICIAL

Se puede definir la “Visión Artificial” como un campo de la “Inteligencia Artificial” que,

mediante la utilización de las técnicas adecuadas, permite la obtención, procesamiento

y análisis de cualquier tipo de información especial obtenida a través de imágenes

digitales

La visión artificial la componen un conjunto de procesos destinados a realizar el análisis

de imágenes. Estos procesos son: captación de imágenes, memorización de la

información, procesado e interpretación de los resultados.

Con la visión artificial se pueden:

• Automatizar tareas repetitivas de inspección realizadas por operadores.

• Realizar controles de calidad de productos que no era posible verificar por

métodos tradicionales.

• Realizar inspecciones de objetos sin contacto físico.

• Realizar la inspección del 100% de la producción (calidad total) a gran velocidad.

• Reducir el tiempo de ciclo en procesos automatizados.

• Realizar inspecciones en procesos donde existe diversidad de piezas con

cambios frecuentes de producción.

Las principales aplicaciones de la visión artificial en la industria actual son:

• Identificación e inspección de objetos.

• Determinación de la posición de los objetos en el espacio.

13

• Establecimiento de relaciones espaciales entre varios objetos (guiado de robots)

• Determinación de las coordenadas importantes de un objeto.

• Realización de mediciones angulares. Mediciones tridimensionales.

4.2.1. MÉTODOS DE CAPTACIÓN DE LAS IMÁGENES.

4.2.1.1 DIGITAL.

La función obtenida tras el resultado de la medida o muestreos realizados a intervalos

de tiempo espaciados regularmente, siendo el valor de dicha función un número positivo

y entero. Los valores que esta función toma en cada punto dependen del brillo que

presenta en esos puntos la imagen original.

Píxel

Una imagen digital se considera como una cuadrícula. Cada elemento de esa cuadrícula

se llama Píxel. La resolución estándar de una imagen digital se puede considerar de

512x484 Pixel.

Nivel de grises

Cuando una imagen es digitalizada, la intensidad del brillo en la escena original

correspondiente a cada punto es cuantificada, dando lugar a un número denominado

“nivel de gris”.

Imagen binaria

Es aquella que sólo tiene dos niveles de gris: negro y blanco. Cada píxel se convierte en

negro o blanco en función del llamado nivel binario o UMBRAL.

Escena

Es un área de memoria donde se guardan todos los parámetros referentes a la

inspección de un objeto en particular: Cámara utilizada, imágenes patrón memorizadas,

tolerancias, datos a visualizar, entradas y salidas de control, etc.

Window (ventana de medida)

Es el área específica de la imagen recogida que se quiere inspeccionar.

14

4.2.2. CAMARAS

Su función es capturar la imagen proyectada en el sensor, para poder transferirla a un

sistema electrónico. Las cámaras utilizadas en visión artificial requieren de una serie de

características que permitan el control del disparo de la cámara para capturar piezas

que pasan por delante de ella en la posición requerida. Son más sofisticadas que las

cámaras convencionales, ya que tienen que poder realizar un control completo de:

tiempos, señales, velocidad de obturación, sensibilidad, etc.

4.2.2.1 CÁMARAS LINEALES

Construyen la imagen línea a línea realizando un barrido del objeto junto con un

desplazamiento longitudinal del mismo. Las cámaras lineales utilizan sensores que

tienen entre los 512 y 8192 pixeles, con una longitud lo más corta posible y gran calidad

de imagen. El hecho de construir imágenes de alta calidad a partir de líneas individuales,

requiere de una alta precisión. La alineación y el sincronismo del sistema son críticos si

se quiere obtener una imagen precisa del objeto a analizar.

Su utilización está muy extendida para la inspección de objetos de longitud

indeterminada, tipo telas, papel, vidrio, planchas de metal, etc.

Características técnicas:

Velocidad

Número de pixeles capaces de ser leídos por unidad de tiempo. En las cámaras lineales

es un valor mucho más alto que en las matriciales. En las cámaras de última generación

se alcanzan velocidades superiores a los 200 MHz.

4.2.2.2 CÁMARAS MATRICIALES

El sensor cubre un área que está formada por una matriz de pixels. Los sensores de las

cámaras modernas son todos de tecnología CCD formados por miles de diodos

fotosensibles posicionados de forma muy precisa en la matriz.

El tamaño de los CCD está definido en pulgadas, sin embargo su tamaño real no tiene

nada que ver con su valor en pulgadas, sino que están basados en la relación de los

primeros con el tamaño de los tubos Vidicon. Formatos habituales son 1/3”,1/2” y 2/3”.

15

Características de los sensores:

Factor de relleno.

Porcentaje del área de píxel que es sensible a la luz, el ideal es el 100%, porcentaje

imposible de obtener por la separación entre los registros.

Tipo de transferencia.

Según la forma de transferencia de la información.

Transferencia Inter-línea (ITL)

Son los más comunes, utilizan registros de desplazamiento situados entre las líneas de

píxel para almacenar y transferir los datos de la imagen lo que permite una alta velocidad

de obturación. Transferencia de cuadro

Disponen de un área dedicada al almacenamiento de la luz, la cual está separada del

área activa, esto permite un mayor factor de relleno aunque se pierde velocidad de

obturación.

Cuadro entero

Son los de arquitectura más simple, emplean un registro paralelo para exposición de los

fotones, integración de la carga y transporte de la misma, alcanzando con este sistema

factores de relleno del 100%.

4.2.2.3 CÁMARAS A COLOR

Aunque el proceso de obtención de las imágenes es más complejo, proporcionan una

mayor información que las monocromo.

Cámara a color 1CCD

Incorporan un sensor con filtro en forma de mosaico, con los colores primarios RGB

(filtro bayer), observar en la figura como hay el doble de pixeles de color verde para así

asemejar la percepción del sensor al ojo humano. Debido al carácter del filtro, bien en

el interior de la cámara, o bien en un ordenador, se realizan los cálculos necesarios para

obtener en tiempo real una señal analógica o digital en RGB.

Cámara color 3CCD

16

Incorporan un prisma y tres sensores, la luz procedente del objeto pasa a través de la

óptica y se divide en tres direcciones al llegar al prisma. En cada una de los tres

extremos del prisma se encuentra un filtro de color (rojo, verde y azul) y un sensor que

captura la luz de cada color que viene del exterior. Internamente la cámara combina los

colores y genera una señal RGB similar a la que ve el ojo humano. Aunque la calidad

de las imágenes de este tipo de cámaras respecto de las de 1CCD es muy superior,

tienen dos inconvenientes a tener en cuenta: la necesidad de una mejor iluminación para

compensar el efecto producido por el prisma y el efecto de aberración cromática que se

crea por la propia estructura del sistema que se subsana colocando las ópticas

adecuadas para este tipo de cámaras.

4.2.3. OPTICAS

Las ópticas se utilizan para transmitir la luz al sensor de la Cámara de una forma

controlada para poder obtener una imagen enfocada de uno o varios objetos. En los

sistemas de visión artificial es necesario utilizar ópticas de calidad para tener la mejor

imagen posible y permitir las medidas con la mayor precisión.

4.2.4. ILUMINACIÓN

La iluminación es la parte más crítica dentro de un sistema de visión. Las cámaras

capturan la luz reflejada de los objetos. El propósito de la iluminación utilizada en las

aplicaciones de visión es controlar la forma en que la cámara va a ver el objeto. La luz

se refleja de forma distinta si se ilumina una bola de acero, que si se ilumina una hoja

de papel blanco y el sistema de iluminación por tanto debe ajustarse al objeto a iluminar.

[21]

Hay un cierto número de consideraciones a tener en cuenta para determinar la mejor

iluminación para una aplicación:

• ¿Es en color o en monocromo?

• ¿Es de alta velocidad o no?

• ¿Cuál es el campo de visión a iluminar?

• ¿El objeto presenta superficies con reflejos?

• ¿Qué fondo presenta la aplicación: color, geometría, etc.?

• ¿Cuál es la característica a resaltar?

• ¿Qué duración debe tener el sistema de iluminación?

• ¿Qué requisitos mecánicos, ambientales, deben considerarse?

La respuesta a estas preguntas dará el tipo de iluminación a utilizar, para lo que se

tendrá en cuenta:

• Intensidad de luz necesaria

17

• Longitud de onda adecuada

• Superficie a iluminar

• Reflectividad del objeto

• Color del objeto

• Espacio disponible

• Tipo de cámara utilizada

5. SELECCIÓN DE HERRAMIENTAS PARA EL DESARROLLO DEL

PROYECTO

5.1. NI LABVIEW

LabVIEW es un entorno de desarrollo diseñado específicamente para acelerar la

productividad de ingenieros y científicos. Con una sintaxis de programación gráfica que

facilita visualizar, crear y codificar sistemas de ingeniería, LabVIEW es incomparable en

ayudar a ingenieros a convertir sus ideas en realidad, reducir tiempos de pruebas y

ofrecer análisis de negocio basado en datos recolectados. Desde desarrollar máquinas

inteligentes hasta garantizar la calidad de los dispositivos conectados.

5.2. NI VISION BUILER

Vision Builder for Automatic Inspecction es un software de Vision Interactivo y

configurable, con una gran variedad de herramientas, como por ejemplo detección,

medición, identificación y clasificación de objetos, lo cual resulto muy útil para este

proyecto. [22]

5.3. KIT LEGO MINDSTORM NXT

El Kit lego Mindstorm NXT permite construir un robot uniendo piezas y programando las

acciones de las mismas. El principal motivo de utilizar esta plataforma son las ventajas

que ofrece siendo fácil de controlar tanto su parte mecánica como electrónica.

El NXT 2.0 cuenta con una mini- computadora o ladrillo con capacidad de

almacenamiento en RAM de 64 Kb, este ladrillo incluye cuatro puertos de entrada en los

que se conectan los sensores y tres puertos de salida en los que se conectan los

motores. Los motores cuentan con un sensor de rotación que permite movimientos

precisos y controlados, así como una sincronización en el tiempo de la ejecución de una

acción con otros motores. [23]

En la Tabla 1 se presenta un resumen detallado de las características técnicas del Kit

LEGO Mindstorms NXT.

NXT

18

Procesador Atmel 32-Bit - ARM7 48 MHz, 256KB flash,

64 KB RAM

Sistema operativo Propietario

Puertos 3 puertos para motores

4 puertos para sensores

Comunicación USB 12 Mbps

Bluetooth

Comunicación con

móviles inteligentes

dispositivos Android

Pantalla LCD monocromática, 100 x 64 pixeles

Otras características. Co-procesador Atmel 8-Bit AVR 8MHz,

4KB flash, 512 Byte RAM.

Tabla 1. Características técnicas Lego NXT, tomada de [23]

Figura 1. Kit Lego Mindstorn NXT 2.0, tomada de [24]

De los sensores que proporciona el kit Lego (luz, contacto, sonido y ultrasonido)

únicamente se le da uso al sensor interno que poseen los servomotores que miden la

rotación.

En cuanto a los servomotores, con el uso de dos es suficiente, el motor B y el motor C.

Se utiliza una tercera rueda como apoyo siguiendo el diseño principal del kit (Figura 2).

19

Figura 2. Estructura Vehículo Lego 2.0, fuente autores

La comunicación con el vehículo NXT se puede dar de tres maneras, la primera es por

medio de los cuatro botones que posee, que se no era viable para el proyecto. la

segunda es utilizando un cable USB, esta alternativa fue considerada, pero se descartó

por la dificultad que genera tener un cable conectado al vehículo cuando está

moviéndose en el entorno. Y una tercera que es por medio de bluetooth, en donde sólo

pueden estar conectados un máximo de tres equipos, esta alternativa resulto ser la

mejor, puesto que, LabVIEW® cuenta con esta opción de transmisión (Tello Leal,

Guerrero Melendez, & Saldivar Alonso, 2013).

5.4. CÁMARA

La cámara utilizada en el presente proyecto es de tipo web con interfaz USB, marca

Microsoft, modelo AV-1000 (Figura 3). Esta cámara posee un sensor de tipo CMOS que

le permite a la cámara tener una mayor sensibilidad a la luz, esto favorece las

condiciones de iluminación del entorno de navegación que se representa, ya que en el

ambiente de trabajo la iluminación presente es de tipo fluorescente [25]. La cámara está

ubicada a una altura de aproximadamente 2m.

20

Figura 3. Cámara Microsoft AV-1000, tomada de [25]

Las características de la cámara se muestran en la Tabla 2.

Características

Captura de

imágenes fijas

0.35 M pixel

Interface USB 2.0

Formato de video 32 bit

Sensor CMOS

Resolución máxima 640*480(VGA)

Captura de video Hasta 30 fpm (VGA)

Ángulo de rotación 55 grados

Tabla 2. Características Técnicas Microsoft LiveCam AV-1000, tomada de [25]

6. DESARROLLO DEL PROYECTO

Para la elaboración del proyecto fue necesario contar con un entorno controlado, ya que

la luz resulta ser un gran problema al momento de manipular las imágenes. Se

seleccionaron cuatro puntos de referencia que asemejan de forma didáctica una celda

de manufactura flexible.

Todo el desarrollo del proyecto se va a explicar claramente a continuación:

21

6.1. PROCESAMIENTO DE LA IMAGEN

Esta primera parte se hace con la ayuda de NI Vision Builder, se toma una imagen del

entorno, se abre la opción visión Assistent, donde esta se pasa a una escala de grises,

se modifica el brillo, la gama y el contraste hasta lograr una imagen a blanco y negro

totalmente clara en donde solo estén presentes los objetos que se desean.

Figura 4. Imagen con Vision Assistant, fuente autores

A continuación, es necesario establecer una región de interés general, que es en donde

los vehículos NXT van a realizar sus desplazamientos.

22

Figura 5. Selección región de interés general, fuente autores

Para la detección de las estaciones es necesario colocar una región de interés (ROI)

para cada una de ellas, ya que estas permanecen estáticas en el entorno. Las

estaciones se reconocen por el área, la cual es diferente a la de los vehículos.

Figura 6. Reconocimiento de una estación, fuente autores

Figura 7. Reconocimiento de las ocho estaciones, fuente autores

Pero los vehículos NXT si tienen movimiento, y para que se reconozcan de manera

independiente es necesario que las áreas de estos sean diferentes. El vehículo NXT 1

(cubo) está representado con rectángulos de diferente tamaño, uno grande para la parte

23

trasera y uno pequeño para su parte delantera (ver figura 8). El vehículo NXT 2 (Vision)

se representa con dos triángulos de diferente área, en el mismo sentido que el vehículo

1 (ver figura 9). El tercer vehículo es representado con una flecha que indica el sentido

de orientación del mismo (ver figura 10). Cabe destacar que cada área presente en el

procesamiento de la imagen, debe de ser diferente, ya que de lo contrario generarían

interferencia a la hora de correr el programa.

Figura 8. Vehículo NXT 1 (Cubo) , fuente autores

Figura 9. Vehículo NXT 2 (Vision), fuente autores

24

Figura 10. Representación tercer vehículo, fuente autores

Figura 11. Selección parte delantera cubo, fuente autores

Figura 12. Selección parte trasera cubo, fuente autores

25

Figura 13. Selección parte delantera visión, fuente autores

Figura 14. Selección parte trasera visión, fuente autores

26

Figura 15. Selección tercer vehículo, fuente autores

6.2. POSICIÓN DE LOS VEHICULOS DENTRO DEL ENTORNO

Inicialmente se toma la distancia que hay entre las partes delanteras de los vehículos

NXT, para esto se utiliza una opción del Vision Builder llamada “Geometry”, en esta se

usa la herramienta distancia.

Figura 16. Distancia entre frentes, fuente autores

Ahora es necesario definir la orientación de los vehículos NXT respecto a la estación,

para esto se utiliza la opción medir ángulo con tres puntos.

27

Figura 17. Medición del ángulo para cubo, fuente autores

Figura 18. Medición del Angulo para visión , fuente autores

Se repite el mismo procedimiento con las demás estaciones

28

Figura 19. Ángulos con todas las estaciones, fuente autores

6.3. PROGRAMACIÒN EN LABVIEW

Para enlazar más de un vehículo NXT, es necesario usar un computador por cada uno,

ya que con un solo computador no es posible, puesto que, el envio de datos del

computador al bloque NXT se hace por medio de bluetooth y el canal solo funciona con

uno, pues cuando se intenta conectar más de un vehículo se genera un fallo en el

programa.

Para solucionar el problema, los datos enviados de VBAI® son compartidos PC a PC en

tiempo real a través de una red WIFI previamente sincronizada.

En LabVIEW el paso a seguir es programar los algoritmos de control necesarios para

que los Vehículos Lego NXT funcionen sin colisión, algoritmos que están en función de

las variables que son enviadas desde Vision Builder.

Gracias a la función set variable de Vision Builder se crean las variables globales.

29

Figura 20. Herramienta set variable, fuente autores

Figura 21. Variables globales, fuente autores

30

Figura 22. Forma de añadir una variable global, fuente autores

Se programa un nuevo proyecto en LabVIEW® en donde se agregan las variables de

VBAI®. En el diagrama de bloques se programa un subVI (figura 23) que corresponde

al giro del vehículo NXT, y éste a su vez pasa a formar parte del sistema de control, el

subVI genera las señales necesarias para mover los motores B y C previamente

programados.

Figura 23. Programa SubVI, fuente autores

Para decidir cuál motor se mueve, se establecen tres situaciones que dependen del

ángulo que hay entre el vehículo NXT y la estación seleccionada, si el ángulo es mayor

a 181º gira el motor C, si el ángulo es menor a 179º gira el motor B y si el ángulo es igual

a 180º giran los dos motores.

Para elegir hacia dónde va el vehículo NXT se usa un botón tipo booleano para cada

una de las estaciones, para que sea pulsada por el usuario y se envíe la orden.

31

Figura 24. Estaciones, fuente autores

La programación de los vehículos NXT cubo y vision son iguales, ya que los dos están

programados para esquivarse entre sí, En la plataforma de programación se crean

condiciones de cada estación y se realiza comparaciones con el ángulo seleccionado y

dependiendo el ángulo un sub VI determinado.

Figura 25. Programación vehículos cubo y vision, fuente autores

Cuando la distancia es menos a una constante determinada se activa la condición de

evasión en cada NXT.

32

Figura 26 Condición de evasión para los vehículos cubo y visión, fuente autores

La programación del tercer vehículo es la más sencilla pues este al encontrarse de frente

con un vehículo detiene los motores hasta que la condición de restricción desaparezca.

Figura 27. Programación tercer vehículo, fuente autores

33

7. RESULTADOS

Debido a que la trasferencia de datos del PC a los vehículos NXT se realizaba por medio

de Bluetooth, al momento de enlazar en tiempo real se presentaba un fallo en el sistema

así que fue necesario el uso de un computador adicional por cada bloque NXT. Por lo

cual surgió el inconveniente de como compartir las variables del VBAI® entre los

computadores en tiempo real, a lo que se corrigió entrelazando vía Wifi con la

herramienta red compartida.

Se halla una solución al problema de la celda de manufactura flexible HAS 200

implementando el algoritmo de programación para que ésta sea capaz de realizar

desplazamientos aleatoriamente, aunque cabe resaltar que la solución aún se presenta

de forma didáctica.

34

8. CONCLUSIONES

• Los vehículos NXT son capaces de realizar rutas seleccionadas sin generar

colisión entre ellos dentro de un entorno controlado, ayudado con el

procesamiento de imágenes de Vision Builder, y este a su vez exporta los datos

a la plataforma LabVIEW.

• El sistema puede llegar a ser implementado como una solución a los problemas

que se dan en una celda de manufactura flexible, puesto que los vehículos NXT

pueden moverse aleatoriamente entre las estaciones.

• Al momento de implementar el algoritmo de programación realizado en este

proyecto hay que tener un estricto control de la iluminación, ya que al momento

de poner en marcha el programa, cualquier haz de luz genera un fallo en el

sistema.

• Gracias a que la universidad facilita los Kits Lego® Mindstorm® NXT 2.0 y las

plataformas de National Instruments (VBAI® y LabVIEW®) resulta

financieramente viable la realización de este proyecto, ya que de no ser así

resultaría prácticamente imposible por el alto costo de las licencias del software.

• Para este proyecto fue necesario implementar una plataforma de comunicación

entre los computadores, por medio de un centro de redes y recursos compartidos

que en este caso fue usado una red inalámbrica (wifi).

• Los programas VBAI® y LabVIEW® resultan ser de gran utilidad cuando se trata

de proyectos de este tipo, ya que, estos son de fácil aprendizaje. Además de

esto, son programas muy robustos que se prestan para ser utilizados en

múltiples problemas que se puedan presentar el área de automatización.

35

.

9. ANALISIS FINANCIERO DEL PROYECTO

La Universidad Distrital Francisco Jose de Caldas cuenta con los Kits Lego®

Mindstorm® NXT 2.0 y las plataformas de National Instruments (VBAI® y Labview®) por

lo cual el único gasto financiero requerido son las horas de labor de los autores y el

personal de apoyo (tutor).

A continuación, se presenta la tabla de costos aproximados de la realización del proyecto

RUBROS CONTRAPARTIDA VALOR

HORA $

HORAS

TOTALES

TOTAL $

ejecutores otros

Materiales y suministros

(tutoriales, manuales de

operación, internet,

videos)

autores --------- --------- ------------ 200000

Plataformas móviles --------------- U.D. 2660 200 532000

Base de datos

especializadas

-------------- U.D. ----------- ----------- 200000

Equipo técnico (cámara) autores --------- --------- ------------- 30000

Software ----------- U. D. 8000 200 1600000

Personal de apoyo (tutor) ---------------- U. D. 50000 30 1500000

Ejecutores(estudiantes) autores ------ 5000 300 1500000

TOTAL 730 5562000

En vista que este proyecto se encuentra en una etapa de evaluación para la

implementación académica, y esperando que otros estudiantes recopilen toda la

información suministrada para darle continuidad a éste con fines de llegar a

aplicarlo en la FMS HAS 200, se podrán calcular los resultados monetarios que

éste pueda llegar a alcanzar.

36

Contenido

1. PLANTEAMIENTO DEL PROBLEMA ............................................................................. 4

2. ESTADO DEL ARTE ..........................................................................................................

5

3. OBJETIVOS ...................................................................................................................... 12

3.1. OBJETIVO GENERAL ................................................................................................. 12

3.2. OBJETIVOS ESPECIFICOS .......................................................................................

12

4. PROCESOS DE AUTOMATIZACIÓN ...........................................................................

13

4.1. CELDAS DE MANUFACTURA FLEXIBLE (FMC) ................................................... 13

4.2. VISIÓN ARTIFICIAL ..................................................................................................... 13

4.2.1. MÉTODOS DE CAPTACIÓN DE LAS IMÁGENES.

........................................ 14

4.2.1.1 DIGITAL. ...........................................................................................................

14

4.2.2. CAMARAS

.............................................................................................................. 15

4.2.2.1 CÁMARAS LINEALES

.................................................................................. 15

4.2.2.2 CÁMARAS MATRICIALES

........................................................................... 16

4.2.2.3 CÁMARAS A COLOR

.................................................................................... 17

4.2.3. OPTICAS

................................................................................................................ 17

4.2.4. ILUMINACIÓN...................................................................................................

..... 18

5. SELECCIÓN DE HERRAMIENTAS PARA EL DESARROLLO DEL PROYECTO 18

5.1. NI LABVIEW .................................................................................................................. 18

5.2. NI VISION BUILER ....................................................................................................... 19

5.3. KIT LEGO MINDSTORM NXT .................................................................................... 19

5.4. CÁMARA ........................................................................................................................

21

6. DESARROLLO DEL PROYECTO ................................................................................. 22

37

6.1. PROCESAMIENTO DE LA IMAGEN ........................................................................ 22

6.2. POSICIÓN DE LOS VEHICULOS DENTRO DEL ENTORNO .............................. 27

6.3. PROGRAMACIÒN EN LABVIEW .............................................................................. 30

7. RESULTADOS ..................................................................................................................

35 8. CONCLUSIONES

............................................................................................................. 36

9. ANALISIS FINANCIERO DEL PROYECTO .................... ¡Error! Marcador no definido.

Bibliografía .................................................................................................................................. 39

INDICE DE FIGURAS ..............................................................................................................

41

Bibliografía [1] Conferencia Internacional para Sistemas de Vehículos no – tripulados [En Línea].

Available: http://www.anajnu.cl/notripulados.htm. [Ultimo acceso: 13 11 2015].

[2] P. D. Chen. “Teleoperation of unmanned ground vehicle”, U. S. Patente 0191269

A1, Jul. 26, 2012.

[3] O. Michel, "Webots: Professional Mobile Robot Simulation, "Journal of Advanced

Robotics Systems, vol. 1, pp. 39-42, 2004.

[4] B. Horan, Z. Najdovski, T. Black and S. Nahavani. “OzTug Mobile Robot for

Manufacturing Transportation”, Greelong, Australia: Centre for Intelligent

Systems Research, 2006.Pag. 1-3.

[5] F. Otero et al. Cant-Miner: An Ant Colony Classification Algorithm Cope with

Continuous Attributes. In ANTS, 2008, pages 48–59.

[6] U. Rasheed, M. Ahmed, M. J. Afridi and F. Kunwar, “Road Trajectory Mining and

Autonomous Steering Control for Vision-Based Unmanned Vehicles”,

Rawalpindi, Pakistan.Department of Mechatronics Engineering, National

University of Sciences and Technology (NUST), 2008, Pages 1-6.

[7] Lego, Lego mindstorms, [En Línea]. Available:<<http://mindstorms.lego.com/.>>

[Ultimo acceso: 23 11 2015].

[8] P.Peco, J.M. Eklund, “A Control System for Automated Multi-Purpose Vehicles

for Manufacturing Applications”, Oshawa, Ontario. Faculty of Engineering and

Applied Science, University of Ontario Institute of Technology, 2008, pages 1-6.

[9] B. H. Yu,D. H. Kim,B. G. Yu, S. Y. Lee and C. S. Han, “Development of Prototype

of a Unmanned Transport Robot for Transport of Construction Materials”, Seul,

Korea. Department of Mechanical Engineering, Hanyang University, International

Conference on Control, Automation and Systems / October 2008.

[10] S. Thrun, M. Bennewitz, W. Burgard, AB Cremers, F. Dellaert, D. Fox, D. Hahnel,

C. Rosenberg, N. Roy, J. Schulte, et al. MINERVA: A secondgeneration museum

tour-guide robot. In 1999. IEEE International Conference on Robotics and

Automation, volume 3, 1999.

38

[11] A. Lucas, C. Christo, M. P. Silva and C. Cardeira, “Mosaic Based Flexible

Navigation for AGVs”, Lisboa, Portugal. IDMEC/IST, Institute of Mechanical

Engineering. 2006. Page 1-6.

[12] M. Li, K. Imou, K. Wakabayashi, S. Yokoyama.” A New Agricultural Vehicle

Localization System”, Tokyo,Japón. Graduate School of Agricultural and Life

Sciences, University of Tokyo, 2008, pag. 333-338.

[13] D. Zermas. “Control of a Leader–Follower Mobile Robotic Swarm Based on the

NXT Educational LEGO Platform”, Rio, Grecia. Department of Electrical and

Computer Engineering, University of Patras, 2011, pag. 1381-1386.

[14] H. Surmann, D. Holz, S. Blumenthal, T. Linder, P. Molitor and V. Tretyakov,

“Teleoperated Visual Inspection and Surveillance with Unmanned Ground and

Aerial Vehicles”, St. Augustin, Alemania. Fraunhofer Institute for Intelligent

Analysis and Information Systems (IAIS), 2008, Pages 1-13.

[15] Revista Semana, Colombia usa Aviones no Tripulados

<<http://www.semana.com/nacion/articulo/wikileaks-colombia-usa-aviones-

notripulados/237248-3>> [Unavailable]

[16] Y. Kim. “Control Systems Lab Using a LEGO Mindstorms NXT Motor System”,

Korea.Member, IEEE, 2011, pag. 452-461.

[17] M. Sherman, A. Leonessa, “An applied method for instruction for feedback control

systems and mechatronics to undergraduate engineering students at the

University of Central Florida,” in Proc. ASME Int. Mech. Eng. Congr. Expo. 2005,

pp. 731–740.

[18] Martinec, D.; Sebek, M.; Hurak, Z. "Vehicular platooning experiments with racing

slot cars", Control Applications (CCA), 2012 IEEE International Conference on,

On page(s): 166 – 171.

[19] Saurith Ramírez Tomas.; Varón Peña Felipe, “Sistema de visión artificial para el

control de vehículos terrestres no tripulados. (Prototipo para la FMS HAS 200)”,

Bogotá, Colombia. Facultad Tecnológica Grupo de investigación: DISING,

Universidad Distrital, marzo – 2014

[20] Ponsa, P., & Granollers, A. Diseño y automatizacion industrial. Available:

<<http://www.epsevg.upc.edu/hcd/material/lecturas/interfaz.pdf>> [En Línea]

[Ultimo acceso: 14 08 2015]

[21] Visión Artificial. n.d. Centro Integrado Politécnico Tudela. Available:

<<http://www.etiudela.com/cedula/dowlands/visionartificial.pdf>> [En Línea]

[Ultimo Acceso: 23 08 2015]

[22] National Instruments. Available]: <<http://www.ni.com/Labview/esa/>> [En

Línea] [Ultimo Acceso: 23 08 2015]

[23] Tello Leal, E., Guerrero Meléndez, T., & Saldívar Alonso, V. (2013). Revisión de

la plataforma robótica LEGO Mindstorms. S&T, 13-17.

[24] Lego. Lego Mindstorms NXT 2.0 Review. Available:

<<http://www.tuvie.com/lego-mindstorms-nxt-2-0-review/.>> [En Línea] [Ultimo

acceso: 03 09 2015]

[25] Engadget. Available:

<<http://www.engadget.com/products/microsoft/lifecam/vx-1000/specs/>> [En

línea] [Ultimo acceso: 08 08 15]

39

INDICE DE FIGURAS

Figura 1 Kit Lego Mindstorn NXT 2.0 .......................................................................... 20

Figura 2 Estructura Vehículo Lego 2.0 ........................................................................ 20

Figura 3 Cámara Microsoft AV-1000 ....................................................................... 2121

Figura 4.Imagen con Vision Assistant ......................................................................... 22

Figura 5.Selección region de interes general .............................................................. 23

Figura 6.Reconocimiento de una estación .................................................................. 23

Figura 7.Reconocimiento de las ocho estaciones ...................................................... 24

Figura 8.Vehiculo NXT 1 (Cubo) ................................................................................. 24

Figura 9.Vehiculo NXT 2 (Vision) ................................................................................ 25

Figura 10.Representacion Tercer vehiculo ................... ¡Error! Marcador no definido.5

Figura 11.Selección parte delantera cubo ................................................................. 325

Figura 12.Selección parte trasera cubo .................................................................... 336

Figura 13.Selección parte delantera vision ............................................................... 336

Figura 14.Selección parte trasera vision ..................................................................... 27

Figura 15.Selección tercer vehiculo ............................................................................ 27

Figura 16.Distancia entre frentes ................................................................................ 28

Figura 17.Medición del ángulo para cubo ................................................................... 28

Figura 18.Medición del ángulo para vision .................................................................. 29

Figura 19.Angulos con todas las estaciones ............................................................... 29

Figura 20.Herramienta set variable ............................................................................. 30

Figura 21.Variables globales ....................................................................................... 31

Figura 22.Forma de añadir una variable global ........................................................... 31

Figura 23.Programa subVI .......................................................................................... 32

Figura 24.Estaciones .................................................................................................. 32

Figura 25.Programación vehiculo cubo y vision .......................................................... 33

Figura 26.Condición de evasión para los vehiculos cubo y vision ............................... 33

Figura 27.Programación tercer vehiculo...................................................................... 34

40