Professional Documents
Culture Documents
Sistema Robótico Teleoperado para La Recolección de Fresas de Forma Remota
Sistema Robótico Teleoperado para La Recolección de Fresas de Forma Remota
FORMA REMOTA
Director
MSc. JOSÉ LEÓN LEÓN
__________________________________
__________________________________
__________________________________
__________________________________
__________________________________
__________________________________
___________________________________
Firma del presidente de jurado
___________________________________
Firma del jurado
___________________________________
Firma del jurado
4
AGRADECIMIENTOS
Primero, doy gracias a Dios por darme la fuerza y la sabiduría para seguir adelante en el
camino, a pesar todos los obstáculos que se presentaron. Con esto, poder tener la
motivación de cumplir sueños y metas que me llenan de valor cada día para crecer tanto
persona como profesionalmente.
A mi Madre que está en lo más lejano, por enseñarme a ser una gran persona, a luchar
por mis sueños y metas, a pesar de los inconvenientes que se presentaron en el camino,
siempre hay una razón por la cual luchar, en este caso ella que ha sido el motor y el
impulso de mi vida, en la carrera y en este trabajo, cumpliendo uno de los sueños que
ella más quería. A mi Papá y mi hermana, la base fundamental, por su acompañamiento
en la carrera y la motivación que me dan para crecer, no decaer y no renunciar. Y por
último agradecer a mis amigos, compañeros, que una u otra manera han estado
pendientes en mi progreso, ayudándome para poder alcanzar los objetivos, motivándome
y sobre todo a mis maestros en el cual aportaron su sabiduría, por sus experiencias
laborales, estrategias para cumplir dichos proyectos y que estuvieron en mi crecimiento
profesional.
5
CONTENIDO
pág.
INTRODUCCIÓN ...................................................................................................................................... 14
1. GENERALIDADES .......................................................................................................................... 15
1.1 ANTECEDENTES .................................................................................................................... 15
1.2 PLANTEAMIENTO DE PROBLEMA .................................................................................... 27
1.3 PREGUNTA PROBLEMA ....................................................................................................... 30
1.4 HIPÓTESIS ................................................................................................................................ 30
1.5 OBJETIVOS .............................................................................................................................. 31
1.5.1 Objetivo general .............................................................................................................. 31
1.5.2 Objetivos específicos .................................................................................................... 31
1.6 JUSTIFICACIÓN ...................................................................................................................... 32
1.7 MARCO REFERENCIAL......................................................................................................... 33
1.7.1 Marco Teórico .................................................................................................................. 33
1.7.2 Marco Conceptual........................................................................................................... 37
1.8 ALCANCES Y LIMITACIONES ............................................................................................. 42
1.8.1 Alcances............................................................................................................................ 42
1.8.2 Limitaciones ..................................................................................................................... 42
1.9 METODOLOGÍA ....................................................................................................................... 43
1.10 CRONOGRAMA ................................................................................................................... 44
1.11 PRESUPUESTO ................................................................................................................... 46
2. DESARROLLO ................................................................................................................................. 46
2.1 TABLA DE PONDERACIONES............................................................................................. 47
2.2 VISITA AL CAMPO .................................................................................................................. 49
2.3 DISEÑO GENERAL DEL SISTEMA ..................................................................................... 53
2.3.1 Diagrama de bloques ..................................................................................................... 54
2.4 DISEÑO EN 3D ......................................................................................................................... 55
2.5 DISEÑO DE ESQUEMÁTICOS Y PCB ................................................................................ 56
2.6 CONEXIÓN DE RASPBERRY PI 3 B+................................................................................. 64
6
2.7 MONTAJE.................................................................................................................................. 68
3. RESULTADOS Y ANALISIS DE RESULTADOS ....................................................................... 71
4. CONCLUSIONES ............................................................................................................................. 77
5. RECOMENDACIONES Y TRABAJOS FUTUROS .................................................................... 78
BIBLIOGRAFÍA ........................................................................................................................................ 79
7
LISTA DE TABLAS
pág.
8
LISTA DE FIGURAS
pág.
9
Figura 35: Pines GPIO de Raspberry Pi 3 ........................................................................................ 64
Figura 36: GPIO a utilizar en la Raspberry ....................................................................................... 65
Figura 37: Router TP-Link-354C ......................................................................................................... 65
Figura 38: Conexión Wifi del prototipo ............................................................................................. 66
Figura 39: Cámara del prototipo ......................................................................................................... 66
Figura 40: Transmisión de video, menú de la librería Motilón ................................................... 67
Figura 41: Transmisión de video de una cámara en página web .............................................. 68
Figura 42: Planchado de las PCB’s ................................................................................................... 68
Figura 43: Módulos driver L298n ........................................................................................................ 69
Figura 44: Conexión de driver L298n ................................................................................................ 69
Figura 45: Prototipo de una planta de fresas .................................................................................. 70
Figura 46: Montaje 1 del sistema robótico....................................................................................... 71
Figura 47: Montaje 2 del sistema robótico....................................................................................... 72
Figura 48: Montaje 3 del sistema robótico....................................................................................... 72
Figura 49: Oruga del prototipo ............................................................................................................ 73
Figura 50: Planchado de PCB’s .......................................................................................................... 73
Figura 51: Angulo desde la cámara para la recolección de las fresas. ................................... 74
Figura 52:Prueba de las pinzas........................................................................................................... 74
Figura 53: Agarre de las fresas ........................................................................................................... 75
Figura 54: Pagina Web .......................................................................................................................... 76
10
LISTA DE ANEXOS
pág.
11
RESUMEN
12
ABSTRACT
13
INTRODUCCIÓN
14
1. GENERALIDADES
1.1 ANTECEDENTES
1
GARCÍA LUNA, F.; MORALES DÍAZ A. Towards an artificial vision-robotic system for tomato identification.
Science-Direct. 2016, vol. 49, nro. 16. pp. 365. ISSN 24058963.
15
Leds de sobre corriente para un color y un brillo de imagen constantes en
aplicaciones de visión artificial agrícola
Según Ommed Mirbod, Daeun Choi2, entre otros, la visión artificial es un factor importante
para la agricultura, estas aplicaciones permiten la obtención de imágenes y
posteriormente realizar un análisis con estas. La recolección de las imágenes presenta
complejidades en cuanto a las condiciones del exterior, como variación de la luminosidad
de la luz solar, el cual es inestable, movimiento de vehículos y vibraciones de los terrenos,
el cual está montada la cámara. En la Figura 2, se observa un sistema de iluminación por
medio de LEDs accionados por una corriente, en este puede producirse un potente flash,
para tener una iluminación óptima y constante. Se diseña un circuito en el cual permite
almacenar y liberar energía a los LEDs en cual el objetivo es conseguir un efecto de luz
estroboscópica con una cámara permita obtener las imágenes, esto es programado
desde una computadora por ROS y lo controla la tarjeta microcontroladora Arduino MEGA
2560, también hace las respectivas conexiones de las etapas con el calibre de cable
adecuado.
Figura 2: Componentes y conexiones usados por Ommed Mirbod, Daeun Choi, entre otros.
2
MIRBOD, Omeed, et al. Overcurrent-driven LEDs for consistent image colour and brightness in agricultural
machine vision applications. Science-Direct. 2021, vol. 187, nro. 106266. pp. 1. ISSN 0168-1699
16
Revisión de la tecnología IoT agrícola
Según Jinyuan Xu, Baoxing Gu, Guangzhao Tian3, el internet de las cosas (IoT), ha
permitido traer nuevos cambios en los factores agrícolas, estos sistemas inteligentes
permiten aumentar producciones agrícolas, mejorar eficazmente la calidad de los
productos, reducir los costos de mano de obra, también permite aumentar los ingresos,
crecer la modernización en estos factores agrícolas. En el proyecto se realizó una
comparación de diferentes tecnologías agrícolas y sus aplicaciones de la IO agrícola en
cinco campos representativos. Y finalmente se analizó de los problemas existentes en la
IO agrícola. Se planteó una previsión hacia el futuro de la IO agrícola para deducir el
impacto de crecimiento que tendría las producciones agrícolas. Como se observa en la
Figura 3, se realiza un diseño IoT en una zona de agricultura, permitiendo una conexión
entre el usuario con la zona rural, este es uno de los planteamientos que asigna los
autores, por medio de la nube adquieren los datos, implementando un Gateway en la
zona a monitorear.
Figura 3: Sistema de monitoreo IoT en la agricultura por Jinyuan Xu, Baoxing Gu y Guangzhao
Tian
3
XU, Jinyuan; GU, Baoxing; TIAN, Guangzhao. Review of agricultural IoT technology. Science-Direct. 2022,
vol. 6, pp. 10. ISSN 2589-7217.
17
Identificación de los sistemas robóticos agrícolas
Los mecanismos básicos de los robots agrícolas se deben determinar a partir de
propiedades físicas de su objeto de trabajo. Según Naoshi Kondo 4, Las propiedades de
las plantas se pueden modificar a partir de la implementación de tecnologías agrícolas y
la biotecnología. El uso de la robótica se determina a las necesidades del trabajo de
producción en el cual permite una eficiencia superior y alto rendimiento. Para este
proyecto se analiza y se realiza pruebas de diferentes tipos de mecanismos robóticos
adaptables con configuración cambiante para cada tipo de planta.
Estación climática de bajo costo para aplicaciones agrícolas inteligentes con
energía fotovoltaica y comunicación inalámbrica
Según J.S. Botero, M. Mejía y Joshua M.5, la medición de las variables de las condiciones
climáticas es importante para los campos científicos y prácticos. Estas cambian en
función del tiempo y posición. Los sistemas llamados “Smart-Agriculture” es necesario
que se mejore los sistemas de medición y distribuirlos ampliamente en la ubicación de
cultivos. Este grupo de proyecto, diseñan y fabrican una estación climática autónoma en
el cual pueda ser alimentada por energía solar y con comunicaciones inalámbricas 3G o
por medio de Wifi. Esta estación hará medición de humedad relativa, temperatura,
precisión atmosférica, precipitación, velocidad del viento y radiación luminosa. Otro
objetivo fundamental aparte de realizar mediciones, es controlar a una larga distancia y
obtener los datos en tiempo real, posteriormente subirlos a la nube en una base de datos.
Con esto ayudara a crecer y motivar con tecnologías para la agricultura para mejorar el
rendimiento de las producciones y las condiciones de estas.
Contribución al Desarrollo de Sistemas Inteligentes de Monitorización y Control de
Microclimas lumínicos basados en el Internet de las Cosas y en las nuevas
tecnologías SSL (Solid State Lighting). Aplicación a entornos agrícolas para el
estudio del efecto sobre la germinación y crecimiento vegetal in vitro.
Según Cristóbal Solano6, el desafío en los próximos años para la agricultura es alcanzar
la sostenibilidad a nivel global las producciones. Esto intervienen el cambio climático,
aumento de la población, reducción de recursos para las cosechas, aumento de costos
4
KONDO, Naoshi. IDENTIFICATION OF AGRICULTURAL ROBOTICS SYSTEMS. Science-Direct. 1997,
vol. 30, pp. 1715.
5
BOTERO VALENCIA, J.S.; MEJIA HERRERA, M.; JOSHUA M., Pearce. Low cost climate station for smart
agriculture applicationswith photovoltaic enkergy and wireless communication. Science-Direct. 2022, vol.
11, nro. e00296. pp. 1. ISSN 2468-0672.
6
SOLANO NAVARRO, Cristóbal Javier. Contribución al Desarrollo de Sistemas Inteligentes de
Monitorización y Control de Microclimas lumínicos basados en el Internet de las Cosas y en las nuevas
tecnologías SSL (Solid State Lighting). Aplicación a entornos agrícolas para el estudio del efecto sobre la
germinación y crecimiento vegetal in vitro. Tesis Doctorado. Programa de Doctorado en Tecnologías
Industriales. Cartagena. Universidad Politécnica de Cartagena. Departamento Automática, Ingeniería
Eléctrica y Tecnología Electrónica, 2020. 265 p.
18
de transporte, entre otras cosas, deja con dificultades anualmente para las cosechas.
Para resolver esto se puede plantear agriculturas urbanas verticales, aunque está en
estudios la mayor parte, ayudara para un futuro amortiguar esta problemática. En esta
tesis, se pretende realizar una experimentación con mediciones de variables para cultivos
por medio de un microcontrolador en el cual se encargará de procesar la información en
tiempo real, cargando estos datos en una nube y habrá otra unidad encargada de
proporcionar espectro de luz para muestras biológicas.
La inteligencia artificial en la agricultura digital. Hacia la monitorización de la vida
en el campo mediante sensores no invasivos
A lo largo de los años la agricultura busca reducir costos para las producciones, para
tener un aumento de cosechas y mejor sostenibilidad. Para esto es necesario según
Salvador Gutiérrez Salcedo7, desarrollar aplicaciones útiles para los agricultores que les
permita mejorar su trabajo de producción y puedan crecer en sus terrenos por medio de
tecnologías de sensorias que permitan la adquisición de grandes cantidades de datos.
Junto con la inteligencia artificial permite alcanzar los requisitos requeridos para la
agricultura digital. El objetivo principal de esta tesis es poder lograr una combinación entre
un aprendizaje automático y tecnologías sensorias no invasiva, para esto se plantean
diferentes algoritmos sobre la monitorización y fenotipado en el campo.
También se estima la aplicación para la estimación del estado hídrico del viñedo con
termografía y por último la imagen hiperespectral para tener en cuenta las condiciones
del campo, para la monitorización de distintos aspectos del cultivo. Al final de la tesis se
obtiene resultados en el cual permite demostrar las diferentes técnicas con la inteligencia
artificial obtener datos, estas investigaciones y desarrollo será publicado para que puedan
tener de referencia de un mejoramiento de producción, dado que permitirá nuevas
soluciones y herramientas de apoyo para el sector agrícola.
Una visión general de la robótica cooperativa en la agricultura
Según Chris Lytridis, Vassilis Kaburlasos, Theodore Pachidis8, entre otros, la robótica
agrícola se ha convertido muy importante para la agricultura en los últimos años, ya que
aborda las cuestiones críticas de la escasez de mano de obra. Se han desarrollado varios
tipos de robots en el cual permita realizar especificas con ciertos grados de eficacia. Los
robots agrícolas no son tan extendidos a nivel mundial, esto presenta una tendencia
emergente. En este artículo se presenta un análisis en el ámbito de la robótica agrícola y
7
GUTIÉRREZ SALCEDO, Salvador. Artificial Intelligence in Digital Agriculture. Towards In-Field Grapevine
Monitoring using Non-invasive Sensors. Trabajo de grado. Facultad de Ciencia y Tecnología. Logroño.
Universidad de la Rioja. Departamento Agricultura y Alimentación, 2019. 174 p.
8
LYTRIDIS, Chris; et al. An Overview of Cooperative Robotics in Agriculture. MDPI. 2021. vol. 11, nro. 9. pp.
1. ISSN 2014062136
19
se exponen los retos afrontar en la automatización de las producciones agrícolas, estos
sistemas ayudaran a sostener poblaciones y sobre todo con pandemia como la reciente
de COVID-19.
Fenotipado automático de tomates en invernaderos de producción mediante
robótica y visión por ordenador: de la teoría a la práctica
Según Hubert Fonteijin, Manya Afonso, Dick Lensink9, entre otros; el fenotipado en un
alto rendimiento desempeña en muchos ámbitos de la agricultura. El análisis de
imágenes reduce drásticamente la dependencia del trabajo manual. Estos sistemas
fenotipados realizan una combinación entre un sistema de adquisición fiable, un algoritmo
de segmentación de alto rendimiento para detectar los frutos en las imágenes individuales
y un algoritmo de registro en el cual reúne las imágenes para realizar la respectiva
segmentación. Sin embargo, estos sistemas fenotipados aún no están en un entorno
rutinario de producciones. Con este trabajo recoge cuestiones para resolver mediante la
descripción de un prototipo de sistema de fenotipado para un invernadero de producción
de tomates, en el cual es una cosecha con entornos difíciles.
Diseño del sistema y control de un robot recolector de manzanas
Kaixiang Zhang10, describe que la robotización es una necesidad para la recolección de
manzanas es cada vez más alta en el transcurso de los años debido a la disminución de
mano de obra. Este artículo se plantea desarrollar un sistema robótico viable para la
cosecha de manzanas, se implementa un diseño mecatrónico sinérgico con un control de
movimiento de un prototipo para esta clase de producción y un sistema de detección y
localización de frutas durante el aprendizaje profundo por medio de una cámara RGB-D.
El manipulador consta de tres grados de libertad con un accionamiento neumático/motor
para lograr estos movimientos de rotación. Además, se desarrolla un esquema de control
no lineal para que el manipulador consiga un control de movimiento preciso y ágil. Para
esto se realizan varios experimentos con el fin de obtener un rendimiento alto del
recolector de manzanas.
9
FONTEIJN, Hubert; et al. Automatic Phenotyping of Tomatoes in ProductionGreenhouses Using Robotics
and Computer Vision:From Theory to Practice. MDPI. 2021. vol. 11, nro. 8. pp.1 ISSN 20734395
10
ZHANG, Kaixiang; et al. System design and control of an apple harvesting robot. Science-Direct. 2021.
vol. 79, nro. 102644. pp.1. ISSN 0957-4158.
20
Sistemas de visión para robots recolectores: Detección y localización de productos
En los últimos años la inteligencia artificial y los avances tecnológicos ha tenido un
crecimiento muy importante en la sociedad, según Luis Montoya11, anualmente se crean
nuevos sensores con capacidad 3D y sistemas integrados más agiles, aumentando el
rendimiento de la detección y la localización de robots recolectores. Sin embargo, estos
sistemas requieren de capacitaciones para manipular esta tecnología, mayor tiempo de
procesamiento y potencia para la inferencia y un alto costo de hardware. En este trabajo
se centra en las investigaciones sobre las detecciones y localizaciones de los productos,
con las nuevas tecnologías que se están utilizando. Se realiza descripciones sobre los
retos que tienen estas tecnologías implementadas en las cosechas y se discuten con
respecto a las tendencias futuras para subsistemas de la visión y recolección de
producciones agrícolas.
Desarrollo y evaluación de un efector final neumático tipo dedo para un robot de
recolección de tomates Cherry en invernadero
En este artículo, presentado por Jin Gao12, se pretende desarrollar un efector final
neumático en forma de dedo como se muestra en la Figura 4, para la recolección de
tomates Cherry, este sistema consiste en un dedo de sujeción, cilindros giratorios y
telescópicos con una cámara RGB-D. Esto permite la adaptabilidad en entornos
operativos densos. Posteriormente al diseño, se realizó un sistema de medición dinámica
para analizar la fuerza ejercida y la perturbación que contiene. Uno de los resultados
recogidos muestra que tanto la fuerza aplicada como la perturbación son menores, con
esto se escoge el método de rotación para el diseño del efector final. Con este sistema
se puede obtener los resultados de cada rotación, un porcentaje de efectividad alto y
también se analizan los fallos y colisiones para posteriormente tenerlas en cuenta de un
próximo diseño de recolección de esta cosecha.
11
MONTOYA CAVERO, Luis Enrique; et al. Vision systems for harvesting robots: Produce detection and
localization. Science-Direct. 2022. vol. 192, nro. 106562. pp. 2. ISSN 0168-1699.
12
GAO, Jin; et al. Development and evaluation of a pneumatic finger-like end-effector for cherry tomato
harvesting robot in greenhouse. Science-Direct. 2022. vol. 197, nro. 106879. pp. 1. ISSN 0168-1699.
21
Figura 4: Modelo CAD del efector final de recolección de tomates Cherry
13
FU, Lanhui; et al. Fast detection of banana bunches and stalks in the natural environment based on deep
learning. Science-Direct. 2022. vol. 194, nro. 106800. pp. 1. ISSN 0168-1699.
14
WANG, Dandan; HE, Dongjian. Fusion of Mask RCNN and attention mechanism for instance
segmentation of apples under complex background. Science-Direct. 2022. vol. 196, nro. 106864. pp. 1.
ISSN 0168-1699.
22
características de crecimiento influyen como la fluctuación de la iluminación, vientos y la
oclusión de las manzanas, el cambio gradual del color del suelo de las manzanas del
verde al rojo y las similitudes entre las manzanas inmaduras y las hojas del fondo, afectan
a la precisión de la segmentación de la manzana. Para este proyecto se realiza un estudio
de un método de precisión en la segmentación que garantice las instancias de manzanas
basada en una red neuronal convolucional basada en la región de la máscara (Mask
RCNN). Con este modelo ayuda a mejorar los resultados experimentales en la
segmentación con precisión de las manzanas en diversas condiciones, con rendimiento
casi en tiempo real, con esto ayuda a tener bases para una detección precisa en la futura
y un seguimiento automático del crecimiento a largo plazo
AGRODROYD: SISTEMA DE MONITOREO PARA CUIDADO Y RIEGO DE PRODUCTOS
AGRÍCOLAS EN CULTIVOS URBANOS
15
PERAFAN MARTIN, Carlos Andrés. AGRODROYD: SISTEMA DE MONITOREO PARA CUIDADO Y
RIEGO DE PRODUCTOS AGRÍCOLAS EN CULTIVOS URBANOS. Trabajo de grado. Facultad de
Ingeniería. Universidad Católica de Colombia. Programa de Ingeniería Electrónica y Telecomunicaciones,
2018. 126 p
16
DE PRETER, Andreas; ANTHONIS Jan; DE BAERDEMAEKER, Josse. Development of a Robot for
Harvesting Strawberries. Science-Direct. 2018, vol. 51, no 17. pp. 14. ISSN 2405-8963.
23
Figura 5: Diseño conceptual del robot recolector con sus componentes
24
Un método mejorado de separación de obstáculos utilizando el aprendizaje
profundo para la detección y el seguimiento de objetos en un bucle de control
visual híbrido para la recogida de fruta en racimos
Para Ya Xion, Yuanyue GE y Pal Johan From17, los obstáculos ha sido un problema para
los robots recolectores en la separación de cosechas, ya que le impide realizar ciertas
tareas para su recolección o acumulan objetos no deseados en sus tareas. En este
proyecto se diseña y se implementa mejoras de un robot que permita tener mayor
eficiencia para la separación activa de obstáculos, el cual permita la separación de las
fredas, siendo un sistema de reconocimiento visual más rápido y preciso, este es la
combinación de redes neuronales con el umbral de color de la detección. Este sistema
tiene un seguimiento en tiempo real y tiene un método de control hibrido basado en la
visión. Como se puede observar en la Figura 7, como es el tipo de cultivo que se
implementa y como está compuesto el prototipo para recoger las fresas de manera más
rápida y segura.
Figura 7: El robot recolector de fresas en forma de U en una granja.
(a) Vista general de todo el sistema (b) Vista interior del sistema de recolección.
17
XIONG, Ye; GE, Yuanyue; FROM, Pal Johan. An improved obstacle separation method using deep
learning for object detection and tracking in a hybrid visual control loop for fruit picking in clusters. Science-
Direct. 2021, vol. 51, pp. 1. ISSN 0168-1699.
25
fresas, aumentando la productividad, sin reducir la velocidad, pero con un buen
rendimiento en la separación de productos.
Segmentación de instancias y localización de fresas en condiciones de granja para
la recolección automática de la fruta
En este artículo presentado por Yuanyue Ge, Ya Xiong y Pal J. From 18, describe sobre la
detección y localización precia de las cosechas, como lo son los frutos. En este proyecto
se basa en la segmentación de las fresas, ya que es un reto por el tamaño y la detección.
Como se observa en la Figura 8, el reconocimiento que tiene el sistema CNN para
establecer el nivel de madurez que tiene la fresa, este sistema hace el reconocimiento y
determina la segmentación correspondiente.
Figura 8: Arquitectura CNN utilizada para la segmentación de instancias de fresas
Con una red neuronal convolucional profunda (DCNN), se definen cuatro clases, tres son
de niveles de maduración y una es para las fresas deformadas. Por medio de una relación
de anchura y altura (WHR) de las máscaras, permite detectar la forma de la fresa y
encontrar el lado ocluido de la fresa.
Desarrollo de una cosechadora robótica de fresas para acercarse a la fruta objetivo
desde el lado del banco colgante
En este proyecto presentado por: Satoshi Yamamoto, Shigehiko Hayashi 19, entre otros,
explica sobre la producción de fresas de cómo se puede reducir la mano de obra
desarrollando un robot recolector en un banco colgante de fresas que tiene
aproximadamente 1,0 metro de altura. Para este proyecto, el grupo realiza un robot
recolector de fresas, haciendo reconocimiento de las fresas madura con las inmaduras,
lo cual es un reto, ya que estas están combinadas. En el planteamiento encuentran que
las frutas maduras se hacen delante de las inmaduras, con este criterio ubican el robot
debajo del banco colgante para ubicar las fresas que sobresalgan más. Este prototipo
tiene una plataforma móvil, en el cual permite observar los movimientos de trayectoria en
18
XIONG, Ye; GE, Yuanyue; FROM, Pal Johan. Instance Segmentation and Localization of Strawberries in
Farm Conditions for Automatic Fruit Harvesting. Science-Direct. 2019, vol. 52, no. 30. pp. 294. ISSN 2405-
8963.
19
YAMAMOTO, Satoshi; et al. Development of Robotic Strawberry Harvester to Approach Target Fruit from
Hanging Bench Side. Science-Direct. 2010, vol. 43, no 26. pp. 95. ISSN 1474-6670.
26
tiempo real. Con estas experiencias que obtuvieron pudieron confirmar que el robot es
capaz de soportar 200 kg de carga y puede cosechar con éxito las frutas maduras.
En la Figura 9, se tiene una simulación de cómo sería un cultivo de fresas, tipo colgante,
este se realiza para recoger con mayor facilidad estas producciones y los robots trabajen
más rápido.
Figura 9: Diseño de cosechadora de fresas robotizada y plataforma itinerante con cultivo de banco
colgante.
27
de enfermedades y plagas, afecta considerablemente el proceso de crecimiento de las
cosechas.
Países con alto poder adquisitivo, los alimentos en estos países tienen alto porcentaje de
desperdicio, en el cual se desechan incluso cuando son aptos para el consumo humano.
En las industrias se presentan una gran parte de pérdidas en las primeras etapas y etapas
intermedias de las cadenas de suministro de alimentos, ya que se le dan mal uso las
herramientas industriales. Mientras que países de bajos ingresos, las causas del
desperdicio de alimento se da principalmente por ingresos de economía bajos, gestiona
condiciones para las infraestructuras correspondientes para una buena producción. Los
agricultores viven al margen de la inseguridad alimentaria, para poder sostenerse
intentado bajar la reducción de perdidas impactando inmediato y significativamente la
calidad de vida de las personas.20
El mayor comportamiento de disminución de los alimentos, como desperdicio se genera
entre las producciones agropecuarias y procesamiento industrial. Entre estas dos etapas
se tiene que la distribución, recolección y consumo, se desconoce el control que se tiene
para cuidar el proceso que conlleva una buena cadena de procesamiento de alimentos
entre la agricultura y los almacenes de cadena.
Muchas causas están relacionadas con la logística de procesos industriales, las
condiciones climáticas, la economía mundial, entre otros factores. En Colombia el
desperdicio de los alimentos se da en muchos aspectos, como las plagas, decisiones de
producciones, cambios climáticos ha afectado considerablemente las cosechas, la
logística y tecnologías que tienen factores industriales, alto precio de insumos, malas
distribuciones que se le dan a las cadenas de mercado y posteriormente la falta de
coordinación que tienen tanto en los factores privados como públicos. 21
20
SAVE FOOD!, ESTUDIO REALIZADO PARA EL CONGRESO INTERNAIONAL. En: (2011: Düsseldorf).
PÉRDIDAS Y DESPERDICIO DE ALIMENTOS EN EL MUNDO. Roma: ORGANIZACIÓN DE LAS
NACIONES UNIDAS PARA LA ALIMENTACIÓN Y LA AGRICULTURA, 2012. pp. 7
21
CASTAÑEDA, Carlos; MARTINEZ, Juan David; PUERTA Nadia PÉRDIDA Y DESPERDICIO DE
ALIMENTOS EN COLOMBIA [En línea]. 2016. pp. 5 [ Consultado: 31 de mayo de 2022. Disponible en:
https://mrv.dnp.gov.co/Documentos%20de%20Interes/Perdida_y_Desperdicio_de_Alimentos_en_colombi
a.pdf
22 Valle S.A, S. (2018, 25 de abril). Semillas Valle. Semillas
Valle. http://semillasvalle.com/site/blog/anualmente-6-millones-de-toneladas-de-alimentos-se-pierden-en-
colombia-/
28
Un gran porcentaje de pérdida ocurre en las primeras etapas de la cadena. 40,5%; es
decir 3,95 millones toneladas, se descartan durante la producción agropecuaria. Además,
se agrega 342.000 toneladas perdidas en después de la cosecha y en el almacenamiento
(3,5%).23
En la Figura 10 permite apreciar las pérdidas de los alimentos en Colombia, los datos
obtenidos de DNP permite establecer los tipos de productos que se pierden y en cuantas
toneladas en el año 2017, destacando la cantidad de desperdicio en cada factor de la
cadena, esto con el fin de conocer que motivos se pierden las cosechas, que cantidades
y que tipo.
Figura 10: Gráfico LR-SB
Fuente: DNP
23
AGRONEGOCIOS. (s. f.). En el sector agrícola se pierden 6 millones de toneladas de alimentos al año.
Noticias y negocios del Agro, Agricultura, Ganadería y ferias de Colombia|
Agronegocios.co. https://www.agronegocios.co/agricultura/en-el-sector-agricola-se-pierden-6-millones-de-
toneladas-de-alimentos-al-ano-2706145
29
criterio importante a tomar en cuenta, ya que es una necesidad para la población
suministrar el alimento.
1.4 HIPÓTESIS
Como bien se sabe la población requiere cultivos para satisfacer las necesidades
alimenticias, los procesos que se han llevado hasta en la actualidad tienen un gran
porcentaje en la mano de trabajadores agrícolas, estos presentan un esfuerzo y desgaste
de manera continua.
En las cosechas cerca de 9,76 millones de toneladas de comida se pierden al año; 6,08
millones son frutas y verduras lo que representa 58% de los alimentos disponibles. El
mayor porcentaje de estas pérdidas de producción se dan en la recolección de las
cosechas. El mal uso de recoger una producción provoca pérdidas económicas, tiempo
de producción.24
Un sistema automatizado permite mejorar el rendimiento de las cosechas y de manera
más segura y eficiente, ahorrando costos, mano de obra e implementando jornadas
largas de trabajo. Se propone diseñar un sistema robótico en el cual realice dichas tareas
programadas para la recolección y el monitoreo de los cultivos de fresas por medio de la
visión artificial, identificación de las cosechas se encuentre en buen estado y momento
24
AGRONEGOCIOS. (s. f.). En el sector agrícola se pierden 6 millones de toneladas de alimentos al año.
Noticias y negocios del Agro, Agricultura, Ganadería y ferias de Colombia|
Agronegocios.co. https://www.agronegocios.co/agricultura/en-el-sector-agricola-se-pierden-6-millones-de-
toneladas-de-alimentos-al-ano-2706145
30
adecuado para su recolección por medio de un brazo robótico, diseñado para el tipo de
cosecha, empezando con el cultivo de fresas. Un sistema automatizado permite a los
agricultores, puedan interactuar de forma sencilla y rápida con el interfaz robótico, sin la
necesidad de estar presente en la zona de cosecha.
La implementación de estos sistemas permite impulsar la cuarta revolución industrial o
también llamada Industria 4.0, esto permite la robotización en diversos trabajos, teniendo
una profunda transformación en cuanto a la economía, la sociedad y el mercado laboral.
Por otra parte, el proyecto permite satisfacer las necesidades alimentarias con la
agricultura urbana vertical, esto podrá ser implementado para comunidades de bajos
recursos asegurando una seguridad alimentaria estable.
1.5 OBJETIVOS
31
1.6 JUSTIFICACIÓN
32
movimientos para obtener la cosecha de fresas, controlado remotamente. Teniendo en
cuenta algunos requerimientos se reducirá costos para cumplir con las necesidades del
agricultor.
- Brazo Robótico: Los brazos robóticos son robots articulados, los cuales están
construidos y elaborados por estructuras flexibles con articulaciones integradas
permitiendo movimientos y funciones similares a un brazo humano.
Estos sistemas están integrados para diferentes tipos de trabajos como en la
industria, permitiendo realizar procesos de automatización de manera repetitiva y
segura por largo tiempo de trabajo.
Para el funcionamiento del brazo robótico, se ejecuta mediante un conjunto de
lenguajes de programación, el cual está establecido los movimientos, de acuerdo
a las fuerzas, aceleraciones, ubicaciones, etc.
Además de la programación de estos sistemas robóticos, se debe tener en cuenta
las fuerzas y rotaciones ejercidas en cada articulación para cumplir con la
necesidad requerida en el trabajo.
Partes de un brazo robótico:
Controlador: Permite realizar controles de los procesos, movimientos y comandos
a ejecutar en el brazo robótico.
33
Muñeca: Parte de robot, en el cual se encarga de hacer movimientos de
desviación, giro y elevación dependiendo del tipo de función.
Mano robótica o Gripper: Es la parte final de la muñeca, esta puede ser una
pinza u otra herramienta que permita interactuar con el elemento para cumplir con
las necesidades del trabajo. 28
Figura 11: Brazo robótico Universal Robots
28
RIPIPSA S.A DE C.V COPYRIGHT. ▷ Brazos Roboticos Industriales ¿Que son y Como Funcionan?
Ripipsa Cobots [página web]. [Consultado el 27, mayo, 2022]. Disponible en Internet:
<https://ripipsacobots.com/brazos-roboticos-industriales/>.
34
una imagen. La adquisición de imágenes requiere de iluminación adecuada y
captura de imágenes por medio de una cámara, con esto se realiza una captura y
posteriormente será cargado a un software para hacer un estudio de estas
imágenes. Como vemos en la Figura 12, se tiene una red neuronal para el
reconocimiento de un gato, este ilumina el objetivo y los atributos que el sistema
tiene en cuenta para reconocer que es un gato, hace que tenga cola y bigotes.
Este patrón, lo obtiene la máquina después de capturar de muchas imágenes
cargadas de los gatos, para cumplir con el objetivo de reconocimiento.
Figura 12:Diagrama básico de la Visión Artificial
La visión artificial es utilizada para las áreas de Machine Learning donde esté
integrado producto principales a diario, por ejemplo; estudiar el tráfico de
vehículos, la señalización, reconocimiento de objetos, colores, etc. En la actualidad
se ha realizado diversos proyectos con respecto a la visión artificial, como lo son
los vehículos autónomos, para la detección de objetos, el cual permite maniobrar
vehículos sin una persona al mando, de forma segura, evitando chocar. 29
- Lora: Es un protocolo inalámbrico en el cual genera una modulación en
radiofrecuencia, esta tecnología es implementada en comunicaciones militares y
espaciales. Lora esta administrada por “LoRa Alliance”, esta determina el
hardware para trabajar.
29
CENTRO DE FORMACIÓN TÉCNICA PARA LA INDUSTRIA. Visión Artificial: todo lo que necesitas
saber. aula21 | Formación para la Industria [página web]. [Consultado el 24, mayo, 2022]. Disponible en
Internet: <https://www.cursosaula21.com/que-es-la-vision-artificial/>.
35
Algunas de las ventajas que tiene Lora son:
- Bajo consumo.
- Soporta altas interferencias.
- Conexión punto a punto.
- Largo alcance entre 10 a 20 km.
- Sensibilidad al recibir datos.
Fuente: CATSENSORS
30
CATSENSORS. (s. f.). Tecnología LoRA y LoRAWAN - Catsensors. Catsensors: Sensores e
instrumentación industrial. https://www.catsensors.com/es/lorawan/tecnologia-lora-y-lorawan
36
Estos trabajadores tienden a realizar de manera repetitiva la recolección agachándose
para recoger cada fruto, esto es un problema que presenta los trabajadores.
Temperatura de la planta:
Estos cultivos son resistentes a las heladas, pueden soportar hasta -20ºC, pero se
presenta deformaciones en las plantas, estas plantas por lo general pueden estar por
debajo de los 7ºC, para que su vegetación sea abundante.
Para la recolección de estas plantas se realiza una por una, cuando empiezan a madurar,
antes que se torne rojo en muchas ocasiones, de manera adecuada para proteger el fruto.
Se arranca con el peciolo completo, con el tallo verde, nos va a permitir mantener el fruto
por más tiempo. Después de su recolección se recomienda almacenar en la sombra o en
cámaras frigoríficas.31
31
Probelte. Recolección de la fresa: cuándo y cómo se recolecta [página web]. [Consultado el 18,
noviembre, 2022]. Disponible en Internet: <https://probelte.com/es/noticias/recoleccion-de-la-fresa-cuando-
y-como-se-
recolecta/#:~:text=La%20fresa%20se%20arranca%20con,podido%20caer%20sobre%20el%20mismo.>.
32
TRIBALYTE. Sistema embebido y sus características | Conceptos fundamentales. Tribalyte Technologies
[página web]. [Consultado el 24, mayo, 2022]. Disponible en Internet: <https://tech.tribalyte.eu/blog-
sistema-embebido-caracteristicas>.
37
Figura 14: Arduino UNO
Fuente: TRIBALYTE
33
RIPIPSA S.A DE C.V COPYRIGHT. La Automatización ¿Qué es? | Definición, Importancia y Objetivos.
Ripipsa Cobots [página web]. [Consultado el 27, mayo, 2022]. Disponible en Internet:
<https://ripipsacobots.com/automatizacion/>.
38
área de contacto con los distintos grados de libertad que tiene, siendo flexible y
ejerciendo la fuerza y presión necesaria para obtener el trabajo planteado en cada
sistema.34
Más allá de recibir los datos y almacenarlos, el telecontrol dispone de un mando para
dar órdenes sobre actuadores para realizar tareas.35
34
GONZALEZ O., Francisco, et al. Gripper robótico antropomórfico a los dedos primero y segundo, sensible
a la presión. Instituto Politécnico Nacional, UPIITA, Academia de Biónica, México. Instituto Politécnico
Nacional, UPIITA, Academia de Sistemas, México. 2015. pp. [Consultado: 31 de mayo del 2022]. Disponible
en:
https://rcs.cic.ipn.mx/2015_105/Gripper%20robotico%20antropomorfico%20a%20los%20dedos%20prime
ro%20y%20segundo_%20sensible%20a%20la%20presion.pdf
35
Glosario de Riego. (s. f.). Telecontrol – Glosario. Riego Sostenible -
Riego.org. https://www.riego.org/glosario/telecontrol/
36
Verizon. (s. f.). ¿Qué es Wi-Fi? | Definición, significado y explicación | Verizon Fios. Verizon: servicios
móviles, de Internet, TV y telefonía | Sitio oficial. https://espanol.verizon.com/info/definitions/wifi/
39
de la división de las bobinas, para su funcionamiento se realiza de una sola
polaridad siguiendo una secuencia entre los hilos37.
37
TME Electonic Componets. MOTOR PASO A PASO -TIPOS Y EJEMPLOS DE USO DE MOTORES
PASO A PASO [página web]. [Consultado el 4, octubre, 2022]. Disponible en Internet: <
https://www.tme.com/co/es/news/library-articles/page/41861/Motor-paso-a-paso-tipos-y-ejemplos-del-uso-
de-motores-paso-a-paso/>.
38
AREATECNOLOGIA. SERVOMOTORES. [página web]. [Consultado el 28, noviembre, 2022]. Disponible
en Internet: <https://www.areatecnologia.com/electricidad/servomotor.html>.
40
Figura 16: Tipos de servomotores
Fuente: AREATECNOLOGIA
- Router: Son dispositivos que dirigen datos de una red mediante paquetes, estos
tipos de datos pueden ser: archivos, comunicaciones y transmisiones simples
como interactuar por web. Estos aparatos permiten conectar redes locales y a
internet. También nos proporciona seguridad, este filtra contenido integrado no
deseado y los sitios web maliciosos, sin afecta la conectividad en línea. Estos
dispositivos también nos permiten conectar a discos duros y tenerlos como
servidores de uso compartido de archivos o impresoras. 39
- DRV 8825: Es una clase de driver que permite controlar motores paso a paso
bipolares de hasta 2.5 A. Son utilizados en su mayoría para impresoras 3D, CNC,
escáner, entre otras máquinas. Estos drivers permiten controlar la corriente de
salida a través de un potenciómetro y trabaja con un voltaje entre 8.2V a 45V. 40
- Página web: Es un documento digital publicado en un sitio web, este es visto por
un usuario en los navegadores web, tiene diferentes formatos compuestos por
imágenes, textos, videos, etc. Para las páginas web se requieren de una dirección
39
CISCO. ¿Qué es un router? [página web]. [Consultado el 4, octubre, 2022]. Disponible en Internet: <
https://www.cisco.com/c/es_mx/solutions/small-business/resource-center/networking/what-is-a-
router.html#~how-does-a-router-work>
40
Naylamp mechatronics. Driver PAP DRV8825 [página web]. [Consultado el 4, octubre, 2022]. Disponible
en Internet: < https://naylampmechatronics.com/driver-pap-stepper/126-driver-pap-
drv8825.html#:~:text=El%20driver%20DRV8825%20permite%20controlar,como%3A%20RAMPS%20y%2
0CNC%20Shield>.
41
en un navegador, en el cual cargará toda la información establecida por un código,
usualmente es un servidor remoto.41
1.8.1 Alcances
1.8.2 Limitaciones
41
tiendanube. Los 20 tipos de páginas web más usados en la actualidad [página web]. [Consultado el 4,
octubre, 2022]. Disponible en Internet: <https://www.tiendanube.com/blog/mx/tipos-de-paginas-web/>.
42
1.9 METODOLOGÍA
Para el desarrollo de este proyecto se realizó por medio de etapas, permite dividir el
proyecto y tener un seguimiento con las actividades de este sistema robótico. Como se
observa en la Figura 17, se tienen cuatro etapas; investigación, diseño, implementación
y validación, estos tienen como fin un control de cada parte del proyecto y un proceso
seguro.
Fuente: El autor
43
Validación: La validación del proyecto se dará en cuanto al sistema robótico
completo, se determinó la eficiencia que tendrá el diseño y las programaciones,
con esto se decidió cuales ajustes o mejoras se requiere el sistema robótico para
esta clase de cultivos.
1.10 CRONOGRAMA
44
Tabla 1: Programa de actividades
Actividades Sem 1 Sem 2 Sem 3 Sem 4 Sem 5 Sem 6 Sem 7 Sem 8 Sem 9 Sem 10 Sem 11 Sem 12 Sem 13
Fuente: El autor
45
1.11 PRESUPUESTO
Los elementos que se implementó para este proyecto, están representados en la Tabla
2, se detalla el tipo de elemento o servicio que se utilizó, teniendo en cuenta valor de
costo unitario junto con la cantidad y valor total de cada uno. Estos costos están
establecidos con la moneda colombiana.
2. DESARROLLO
Para el desarrollo del proyecto se realizó un estudio de los elementos donde se evaluó
las características que puede brindar, es importante tener en cuenta estos criterios, ya
que el prototipo requiere de exigencias en una zona rural.
46
2.1 TABLA DE PONDERACIONES
Motores
Los motores, son parte fundamental de este sistema robótico, ya que dependemos de
ellos para los movimientos del brazo robótico, principalmente las fuerzas requeridas para
este sistema, en la Tabla 3, se observa los dos tipos de motores importantes para este
prototipo, se escogen los servomotores junto con los motores paso a paso, ya que estos
dos tipos de motores nos puede brindar fuerza.
Tabla 3: Comparación de motores
Motores
Voltaje de Angulo de Capacidad Corriente Inercia de Velocidad de Valoración
Peso Precio
operación paso de carga nominal motor operación total
Servo-motor MG996R 4.8V-7.2V NA 5.0 kg.cm 0.5A NA 0.16s/60° sin carga 45.5 g $ 33.000
29
3 4 3 5 3 4 4 3
Motor paso a paso Nema23-178.5 2,5-12V 1.8° 12.85 Kg/cm 2.8A 34g *cm3 NA 120 g $ 35.000 32
5 5 4 4 4 3 3 4
Fuente: El Autor
Como se observa en la Figura anterior los motores paso a paso no ayudará a soportar
mayores fuerzas, con el voltaje adecuado que brinda la batería, cabe destacar que estos
motores son de segundo uso en el mercado.
Microcontroladores
El microcontrolador permite realizar la interacción del sistema robótico por lo cual es
necesario, la cantidad de GPIO’s sean suficientes y la conectividad remota sea la más
estable, como observamos en la Tabla 4, 6 microcontroladores se pueden usar para este
proyecto, pero teniendo en cuenta las características, no todos cumplen con la función
de conexión remota o la velocidad adecuada, se escogen estas tarjetas ya que están en
un nivel se conectividad, GPIO’s, puertos USB, sin embargo cuando se hace la valoración
la tarjeta Raspberry es la más adecuada para este proyecto, por las características y por
su precio, por lo tanto el microcontrolador óptimo para este proyecto es la Raspberry Pi.
47
Tabla 4:Comparación de los microcontroladores
Califiación 5 5 5 5 3
Tarjeta de Red
Odroid-xu4 3 30 Gigabit Ethernet 2 GB $ 100.000
17
10/100/1000.
Calificación 3 3 2 4 5
Puerto Gigabit
Banana Pi 2 26 1GB
Ethernet $ 250.000 11
Calificación 2 2 3 1 3
Fuente: El Autor
Conexión Remota
Para la conexión remota se contemplaron tres posibles transmisiones, como vemos en la
Tabla 5; tenemos tres tipos de conexiones, en cual se observa el tipo de conexión,
alcance que tiene, la velocidad; que es uno de los factores más importantes para que sea
estable y el consumo. Partiendo de esta comparación se toma la decisión del aplicativo
móvil a utilizar, con respecto a la valoración de las calificaciones dadas por las
características que brinda cada uno. Para la implementación en el prototipo, se requiere
de conexión Wifi, ya que el microcontrolador lo tiene implementado y además es una
conexión rápida que las demás, como se observa en la valoración total, está por encima
48
de las demás conexiones, también hay que destacar que con este tipo de conexión se
puede realizar aplicativos móviles, páginas web, etc., usando la IP de la Raspberry Pi.
Tabla 5: Comparaciones de transmisión remota
Conexión Remota
Tipo de Valoración
Alcance Velocidad Consumo
conexión total
Lora Inalámbrica 20 km < 1Kbps Bajo consumo
16
Calificación 5 5 2 4
Calificación 5 4 5 3
RF Inalámbrica Depende diseño Depende diseño Alto consumo
12
Calificación 5 2 2 3
Fuente: El autor
Este proyecto está basado en un cultivo de fresas, por lo cual se realizó una visita para
conocer el entorno de estos cultivos; terreno, clima y los factores que se intervienen en
estos cultivos. Para este estudio, se realizó en zona rural alta del municipio de Chipaque,
Cundinamarca.
Como se observa en la Figura 18, el cultivo de fresas es sembrado a lo largo,
organizándose en filas, para tener un mejor manejo de las plantas, estas están protegidas
con un plástico para la radiación solar y el exceso de agua por parte de las lluvias.
49
Figura 18: Cultivo de fresas
Fuente: El Autor
Se tiene en cuenta el terreno en que se cultivan las fresas, el clima, la humedad y como
están cultivadas estas cosechas, esto con el fin de diseñar un sistema robótico adecuado
y las dimensiones de dicho brazo robótico.
En la Figura 19, se puede observar cómo se hace la respectiva plantación de las fresas,
este tipo de cultivo es en su mayoría plano y se acomoda la tierra en filas para aprovechar
lo que más se pueda el terreno y se cubre la tierra con un plástico negro estas filas, esto
sirve para cuando las plantas crezcan se apoyen sobre el plástico y no se ensucien, ni se
mezcle los frutos con la tierra. Estas filas o hileras, tienen una longitud de 30 m
aproximadamente.
Figura 19: Sembrado de fresas
Fuente: El Autor
50
En la Figura 20, se puede apreciar como crecen las fresas y como se distribuyen en la
planta, esta parte es muy importante, ya que se requiere de un diseño particular que
permita recoger las fresas de manera segura y eficiente, sin maltratar la planta ni el fruto.
En este cultivo, las fresas se apoyan sobre el plástico negro, esto permitiendo que no se
mezcle con el sustrato y que sea mayor de facilidad de recoger, sin residuos.
Figura 20: Planta de fresas
Fuente: El Autor
51
Figura 21: Zona de cultivo de fresas
Fuente: El Autor
Las dimensiones del terreno son importantes para el diseño y construcción del prototipo,
ya que con este será capaz de recoger el fruto de manera cómoda y sin dificultades.
Como se observa en la Figura 22, se obtiene las dimensiones de este cultivo de fresas
en el municipio de Chipaque, con el fin de construir el prototipo de acuerdo al espacio de
la zona. Se tiene que entre cada fila plantación de fresas son 23 cm, siendo el ancho del
prototipo donde se va a movilizar, 60 cm aproximadamente de alto, donde será la altura
del brazo robótico y 90 cm de ancho de cada fila, por el cual los extremos son donde está
el fruto.
52
Figura 22: Dimensiones en un cultivo de fresas
Fuente: El Autor
Ya realizada la visita al campo, se tiene como guía las dimensiones del prototipo y el
terreno donde este circulara, se realiza el diseño y los planteamientos a usarse para tener
un buen sistema que cumpla con la tarea de recolección de las fresas.
En la Figura 23, podemos observar en forma general como estaría compuesto el diseño,
como bien se había mencionado, se implementa un prototipo de forma remota, en el cual
conecta al usuario por medio de la interfaz de wifi y visualizara la cámara en tiempo real.
Esta conexión se hacer por medio de un router que permita realizar de forma Access
Point, donde conectaremos la Raspberry que es el servidor y el dispositivo electrónico
que quiera interactuar con ella como cliente.
53
Figura 23: Diseño básico del sistema
Fuente: El Autor
Para su traslación será tipo oruga, ya que el terreno es húmedo y se necesita un buen
agarre.
Fuente: El autor
54
1) Encendido de sistema robótico: Como bien su nombre lo dice, permite energizar
todo el sistema robótico, alimentando la tarjeta microcontroladora Raspberry,
motores, router.
6) Recolección de fresa con pinzas: Con las pinzas, se acerca al fruto y luego se
cierra y gira el gripper o la muñeca para poder arrancar la fresa de la planta.
2.4 DISEÑO EN 3D
El diseño de este prototipo, como se ve en la Figura 25, se realizó con el programa Fusión
360 de Autodesk, en este se diseñó las partes del sistema robótico y posteriormente se
imprimió en 3D para luego ser armado.
55
Fuente: El Auto
El sistema está dividido por partes, para tener un mejor control en integración de la parte
electrónica. Sin embargo, se explica otros diseños que se realizaron para tener en cuenta.
A continuación, se tiene los siguientes esquemas y la descripción de cada uno, sobre la
importancia en el sistema robótico.
En la Figura 26 se tiene un esquemático de todo el sistema robótico, este es uno de los
diseños que se planteó con solo motores paso a paso unipolares y motores paso a paso
bipolares en el cual se conectan a módulos driver L298n por medio de borneras.
56
Figura 26: 1er esquemático completo del sistema robótico
Fuente: El autor
Como bien se observa en la Figura 27, es un circuito complejo por la cantidad de pistas
que se requieren para conectar todo el sistema, implementando doble capa para conectar
todo el circuito, además de la complejidad, un problema que se presenta son las pistas,
estas pistas no son lo suficientemente anchas para soportar la corriente de los motores,
donde son los que más consumen, por tal motivo se requiere diseñar dividir el circuito
para que permita cumplir con las necesidades del prototipo sin complicaciones.
57
Figura 27: PCB del circuito completo
Fuente: El Autor
58
Figura 28: 2do Diseño de esquemático del circuito completo
Fuente: El Autor
59
Figura 29: Esquemático de conexión a la Raspberry
Fuente: El Autor
En la Figura 30 tenemos el diseño de la PCB, de cómo se distribuye los pines desde las
borneras hacia la Raspberry por medio de un adaptador de tarjeta de expansión tipo T.
Fuente: El Autor
60
Figura 31: Esquemático de alimentación
Fuente: El Autor
61
Figura 32: PCB de alimentación
Fuente: El Autor
Por último, se tiene la etapa de transistores, para motor paso a paso unipolares, como
vemos en la Figura 33, este esquemático este compuesto por un optoacoplador que
conecta con los pines de la Raspberry y permite el paso de la corriente a los transistores,
que a su vez conecta estos transistores a los hilos del motor paso a paso. Los pines están
nombrados de la siguiente manera, por ejemplo, MO41. M; hace referencia que va
conectado a un motor, O; indica que es una salida a un hilo del motor paso a paso, 4;
hace referencia al motor tres, 1; nos indica que va a la entrada primer hilo del motor.
62
Figura 33: Esquemático para motor paso a paso
Fuente: El Autor
Fuente: El Autor
63
2.6 CONEXIÓN DE RASPBERRY PI 3 B+
64
Figura 36: GPIO a utilizar en la Raspberry
Fuente: El Autor
Fuente: El Autor
65
Como se puede observar en la Figura 38, la red que se conectará el sistema robótico es
llamada TP-Link_354C, este es la referencia del router a usar en este proyecto.
Figura 38: Conexión Wifi del prototipo
Fuente: El Autor
Fuente: El Autor
66
Con la dirección IP de la Raspberry y el puerto 8080 va a permitir acceder a la página
web de la librería Motion. Como se observa en la Figura 40, esta librería es encargada
de transmitir vídeo desde la propia Raspberry como también a un navegador. Como se
observa en la figura 38 tenemos la transmisión de video en el menú de la librería Motion.
Desde aquí se puede gestionar las cámaras, ajustes, entre otros que nos brinda esta
librería.
Figura 40: Transmisión de video, menú de la librería Motilón
Fuente: El Autor
En la Figura 41, se tiene la transmisión de video de una cámara en la página web con la
librería Motion, esta transmisión se realiza después de ingresar la IP de la Raspberry y
el puerto 8081, el cual está la cámara 1.
67
Figura 41: Transmisión de video de una cámara en página web
Fuente: El Autor
2.7 MONTAJE
Con los diseños realizados de PCB’s mencionados anteriormente, se imprime por medio
de planchado, este se realiza por medio de una plancha para implementar las respectivas
pistas de cobre. Como se observa en la Figura 42, una de los diseños donde las pistas
de cobre son las implementadas en la tarjeta, estas antes de aplicar el ácido para quemar
el cobre restante, se resaltan de color blanco y se ajusta las pistas en caso de que faltará
una o una parte.
Figura 42: Planchado de las PCB’s
Fuente: El Autor
68
En la Figura 43, se observa los módulos L298n montados en el prototipo, estos
controlarán los motores de la base o la oruga para su desplazamiento, también se
implementan para algunos motores en el brazo robótico. Se utilizan estos drivers por la
capacidad de corriente, su facilidad en el manejo.
Fuente: El Autor
La conexión de estos módulos se establece como en la Figura 44, las entradas IN1-IN4
se conecta a al microcontrolador, las salidas de Motor A y Motor B a las bobinas
correspondientes. Y la alimentación VIN y GND, estos son las conexiones que se realiza,
las otras se dejan por defecto del módulo.
Fuente: Moviltronics
69
El prototipo de simulación de fresas, se realiza en escala real, teniendo en cuenta las
dimensiones de la planta, como se observa en la Figura 45, una simulación de una planta
de fresas, con ajustes a las ramas y tallos de una planta real de fresas .
Figura 45: Prototipo de una planta de fresas
Fuente: El Autor
70
3. RESULTADOS Y ANALISIS DE RESULTADOS
A partir del montaje se realiza diferentes diseños y pruebas en el cual se pudo evidenciar
complicaciones de los motores a usar, ya que estos motores requieren de la fuerza
suficiente para levantar, peso y adicionalmente la gravedad que juega un papel
importante para los prototipos, a continuación, se explica cada uno de los prototipos
realizados y cómo fue su resultado.
El primer montaje se realizó con impresión 3D en su totalidad, como se observa en la
Figura 46, este sistema fue incorporado con motores paso a paso de segunda, al hacer
las pruebas, los motores no realizan la suficiente fuerza para hacer el desplazamiento de
las circulaciones. Las articulaciones como se ve en la imagen pesan aproximadamente
5kg, peso que no fue levantado por los motores.
A continuación, un video de intento levantamiento de una de las articulaciones:
https://youtu.be/khFkh-MGGv4
Figura 46: Montaje 1 del sistema robótico
Fuente: El Autor
71
Figura 47: Montaje 2 del sistema robótico
Fuente: El Autor
El diseño final que tiene mejores resultados, en la Figura 48, se realizó con palos de cedro
para disminuir el peso, sin embargo, se requiere de doble motor para poder levantar la
articulación, haciendo un esfuerzo grande para sostenerse.
Figura 48: Montaje 3 del sistema robótico
Fuente: El Autor
El sistema de movilidad como se ha visto anteriormente, las circunstancias que tiene que
transportarse el robot en el campo son estrictas, para esto se requiere de una movilidad
con fuerza y agarre, se diseñó una movilidad tipo oruga como se observa en la Figura 49,
este permite un agarre en el terreno y los cuatro motores trabajan independiente, ya que
con este tipo de implementación los motores se distribuyen la peso y la fuerza.
72
Figura 49: Oruga del prototipo
Fuente: El Autor
El resultado final de las PCB’s se ilustra en la Figura 50, estas son implementadas en el
sistema robótico para organizar el circuito como se ha explicado anteriormente cada una.
Fuente: El Autor
73
En la Figura 51, se observa la definición de la cámara y el punto de vista que tiene para
la recolección de las fresas, permitiendo una visibilidad adecuada para el usuario
Figura 51: Angulo desde la cámara para la recolección de las fresas.
Fuente: El Autor
Por último, se tiene en la Figura 52 y 53, las pruebas realizadas con las pinzas para
recolectar de manera segura y sencilla el fruto, en la Figura 52 una prueba de las uvas
para verificar que no se esfuerce en apretarlas demasiado y ya con las fresas arrancar
de la planta sin dejarla caer, a continuación, una demostración del efector final del sistema
Robótico. https://youtu.be/MxZalFIElAs
Figura 52:Prueba de las pinzas
Fuente: El Autor
74
Figura 53: Agarre de las fresas
Fuente: El Autor
Para mover todo el sistema comando desde una transmisión remota se realiza en el IDLE
de Python3 de la Raspberry Pi, en la Tabla 6, se puede observar los comandos que se
interactúan con los motores, en la columna verde se ingresa el comando que se quiere
mover en el prototipo, en el Anexo A, está presentado el código de Python de la tarjeta
microcontroladora. En la tabla, la columna intermedia el funcionamiento del comando
que se va a realizar y la última columna las etiquetas nombradas anteriormente de cada
pin a la Raspberry.
Aprovechando la interfaz de Wifi, se diseña una página web como se observa en la Figura
54, para futuros proyectos, esto para tener una presentación de control junto con la
transmisión de la cámara. En el Anexo B, está dicho código del diseño de la página web.
75
Figura 54: Pagina Web
Fuente: El Autor
76
4. CONCLUSIONES
El protocolo de Wifi permite una comunicación estable entre la página web, transmisión
de video para esta clase de cultivos, no se presentaron retrasos.
La fuerza de los motores no fue lo suficiente para mover las articulaciones, por lo que
implica implementar motores industriales o servomotores de gran tamaño, esto requiere
altos costos para la implementación.
77
5. RECOMENDACIONES Y TRABAJOS FUTUROS
A partir de los diferentes montajes que se hizo y las pruebas realizadas, uno de los
aspectos importantes que se tuvo en cuenta, son las fuerzas para mover el sistema
robótico, además del peso que lleva el prototipo, las fuerzas que ejercen sobre este, como
la gravedad y en algunas zonas vientos que se puedan presentar o climas fuertes a tener
en cuenta. El sistema requiere ser modificado con motores con mayor fuerza, ya que los
implementados no son lo suficientemente fuertes para mover articulaciones con peso, es
recomendable utilizar servomotores que garanticen la fuerza necesaria para estos
proyectos, este es un incremento de costos al implementar esta clase de motores.
Una de las recomendaciones importantes propuestos por este proyecto, es la
alimentación del prototipo, ya que, al tener una alta corriente por efecto de los motores,
se pueden quemar los microcontroladores y sobrecalentar el sistema con este tipo de
sistema. Es recomendable crear una etapa de seguridad de voltaje y regulación de
corriente para evitar estos inconvenientes, o una solución es la implementación de
fusibles.
La conexión entre la Raspberry y los dispositivos electrónicos es la adecuada por medio
de Wifi, este protocolo tiene muchos beneficios, ya que es bajo costo para la
implementación y una eficiencia alta en conectividad, si un terreno es demasiado extenso
se puede implementar repetidores para conectar todo el terreno del cultivo y también se
destaca la implementación de más prototipos, a cada uno asignar una IP para entablar
una conexión directamente a cada uno.
78
Este tipo de sistemas robóticos se pueden incorporar además de la Raspberry PI, otros
tipos de tarjetas como la ESP-32, Raspberry Pi Pico, programando en Micro Python, ya
que permite realizar conexión a una página web con la IP de estas tarjetas. Para la
interfaz de video se requiere un módulo o conectar por medio de los buses de datos RX
y TX.
BIBLIOGRAFÍA
BOTERO VALENCIA, J.S.; MEJIA HERRERA, M.; JOSHUA M., Pearce. Low cost climate
station for smart agriculture applicationswith photovoltaic enkergy and wireless
communication. Science-Direct. 2022, vol. 11, nro. e00296. pp. 1. ISSN 2468-0672.
79
FU, Lanhui; et al. Fast detection of banana bunches and stalks in the natural environment
based on deep learning. Science-Direct. 2022. vol. 194, nro. 106800. pp. 1. ISSN 0168-
1699.
GARCÍA LUNA, F.; MORALES DÍAZ A. Towards an artificial vision-robotic system for
tomato identification. Science-Direct. 2016, vol. 49, nro. 16. pp. 365. ISSN 24058963.
MIRBOD, Omeed, et al. Overcurrent-driven LEDs for consistent image colour and
brightness in agricultural machine vision applications. Science-Direct. 2021, vol. 187, nro.
106266. pp. 1. ISSN 0168-1699
MONTOYA CAVERO, Luis Enrique; et al. Vision systems for harvesting robots: Produce
detection and localization. Science-Direct. 2022. vol. 192, nro. 106562. pp. 2. ISSN 0168-
1699.
GAO, Jin; et al. Development and evaluation of a pneumatic finger-like end-effector for
cherry tomato harvesting robot in greenhouse. Science-Direct. 2022. vol. 197, nro.
106879. pp. 1. ISSN 0168-1699.
GONZALEZ O., Francisco, et al. Gripper robótico antropomórfico a los dedos primero y
segundo, sensible a la presión. Instituto Politécnico Nacional, UPIITA, Academia de
80
Biónica, México. Instituto Politécnico Nacional, UPIITA, Academia de Sistemas, México.
2015. pp. [Consultado: 31 de mayo del 2022]. Disponible en:
https://rcs.cic.ipn.mx/2015_105/Gripper%20robotico%20antropomorfico%20a%20los%2
0dedos%20primero%20y%20segundo_%20sensible%20a%20la%20presion.pdf
RIPIPSA S.A DE C.V COPYRIGHT. ▷ Brazos Roboticos Industriales ¿Que son y Como
Funcionan? Ripipsa Cobots [página web]. [Consultado el 27, mayo, 2022]. Disponible en
Internet: <https://ripipsacobots.com/brazos-roboticos-industriales/>.
81
TRIBALYTE. Sistema embebido y sus características | Conceptos fundamentales.
Tribalyte Technologies [página web]. [Consultado el 24, mayo, 2022]. Disponible en
Internet: <https://tech.tribalyte.eu/blog-sistema-embebido-caracteristicas>.
XU, Jinyuan; GU, Baoxing; TIAN, Guangzhao. Review of agricultural IoT technology.
Science-Direct. 2022, vol. 6, pp. 10. ISSN 2589-7217.
Verizon. (s. f.). ¿Qué es Wi-Fi? | Definición, significado y explicación | Verizon Fios.
Verizon: servicios móviles, de Internet, TV y telefonía | Sitio
oficial. https://espanol.verizon.com/info/definitions/wifi/
WANG, Dandan; HE, Dongjian. Fusion of Mask RCNN and attention mechanism for
instance segmentation of apples under complex background. Science-Direct. 2022. vol.
196, nro. 106864. pp. 1. ISSN 0168-1699.
ZHANG, Kaixiang; et al. System design and control of an apple harvesting robot. Science-
Direct. 2021. vol. 79, nro. 102644. pp.1. ISSN 0957-4158.
82
Anexo A: Código de control de Motores Raspberry Pi.
GPIO.setmode(GPIO.BCM)
GPIO.setup(MI11,GPIO.OUT)
GPIO.setup(MI12,GPIO.OUT)
GPIO.setup(MI13,GPIO.OUT)
GPIO.setup(MI14,GPIO.OUT)
GPIO.setup(MI21,GPIO.OUT)
GPIO.setup(MI22,GPIO.OUT)
GPIO.setup(MI23,GPIO.OUT)
GPIO.setup(MI24,GPIO.OUT)
GPIO.setup(MI31,GPIO.OUT)
GPIO.setup(MI32,GPIO.OUT)
GPIO.setup(MI41,GPIO.OUT)
GPIO.setup(MI42,GPIO.OUT)
GPIO.setup(MI43,GPIO.OUT)
GPIO.setup(MI44,GPIO.OUT)
GPIO.setup(MI61,GPIO.OUT)
83
GPIO.setup(MI62,GPIO.OUT)
GPIO.setup(MI71,GPIO.OUT)
GPIO.setup(MI72,GPIO.OUT)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI11,GPIO.LOW)
while(1):
if x=='s':
print("Subiendo articulación")
GPIO.output(MI31,GPIO.HIGH)
GPIO.output(MI32,GPIO.LOW)
elif x=='b':
print("Bajando articulación")
GPIO.output(MI31,GPIO.LOW)
84
GPIO.output(MI32,GPIO.HIGH)
elif x=='c':
print("Cerrando Pinzas")
GPIO.output(MI71,GPIO.HIGH)
GPIO.output(MI72,GPIO.LOW)
elif x=='ab':
print("Abriendo pinzas")
GPIO.output(MI71,GPIO.LOW)
GPIO.output(MI72,GPIO.HIGH)
elif x=='g1':
print("Girando pinzas a la izquierda")
GPIO.output(MI61,GPIO.HIGH)
GPIO.output(MI62,GPIO.LOW)
elif x=='g2':
print("Girando pinzas a la derecha")
GPIO.output(MI61,GPIO.LOW)
GPIO.output(MI62,GPIO.HIGH)
elif x=='a1':
GPIO.output(MI11,GPIO.HIGH)
GPIO.output(MI12,GPIO.HIGH)
GPIO.output(MI13,GPIO.LOW)
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.HIGH)
GPIO.output(MI22,GPIO.HIGH)
GPIO.output(MI23,GPIO.LOW)
GPIO.output(MI24,GPIO.LOW)
85
time.sleep(0.03)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI12,GPIO.HIGH)
GPIO.output(MI13,GPIO.LOW)
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.HIGH)
GPIO.output(MI23,GPIO.LOW)
GPIO.output(MI24,GPIO.LOW)
time.sleep(0.03)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI12,GPIO.HIGH)
GPIO.output(MI13,GPIO.HIGH)
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.HIGH)
GPIO.output(MI23,GPIO.HIGH)
GPIO.output(MI24,GPIO.LOW)
time.sleep(0.03)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI12,GPIO.LOW)
GPIO.output(MI13,GPIO.HIGH)
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.LOW)
GPIO.output(MI23,GPIO.HIGH)
GPIO.output(MI24,GPIO.LOW)
time.sleep(0.03)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI12,GPIO.LOW)
GPIO.output(MI13,GPIO.HIGH)
GPIO.output(MI14,GPIO.HIGH)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.LOW)
GPIO.output(MI23,GPIO.HIGH)
GPIO.output(MI24,GPIO.HIGH)
time.sleep(0.03)
GPIO.output(MI11,GPIO.LOW)
86
GPIO.output(MI12,GPIO.LOW)
GPIO.output(MI13,GPIO.LOW)
GPIO.output(MI14,GPIO.HIGH)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.LOW)
GPIO.output(MI23,GPIO.LOW)
GPIO.output(MI24,GPIO.HIGH)
time.sleep(0.03)
GPIO.output(MI11,GPIO.HIGH)
GPIO.output(MI12,GPIO.LOW)
GPIO.output(MI13,GPIO.LOW)
GPIO.output(MI14,GPIO.HIGH)
GPIO.output(MI21,GPIO.HIGH)
GPIO.output(MI22,GPIO.LOW)
GPIO.output(MI23,GPIO.LOW)
GPIO.output(MI24,GPIO.HIGH)
time.sleep(0.03)
elif x=='a2':
GPIO.output(MI11,GPIO.HIGH)
GPIO.output(MI12,GPIO.LOW)
GPIO.output(MI13,GPIO.LOW)
GPIO.output(MI14,GPIO.HIGH)
GPIO.output(MI21,GPIO.HIGH)
GPIO.output(MI22,GPIO.LOW)
GPIO.output(MI23,GPIO.LOW)
GPIO.output(MI24,GPIO.HIGH)
time.sleep(0.03)
87
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI12,GPIO.LOW)
GPIO.output(MI13,GPIO.HIGH)
GPIO.output(MI14,GPIO.HIGH)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.LOW)
GPIO.output(MI23,GPIO.HIGH)
GPIO.output(MI24,GPIO.HIGH)
time.sleep(0.03)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI12,GPIO.LOW)
GPIO.output(MI13,GPIO.HIGH)
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.LOW)
GPIO.output(MI23,GPIO.HIGH)
GPIO.output(MI24,GPIO.LOW)
time.sleep(0.03)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI12,GPIO.HIGH)
GPIO.output(MI13,GPIO.HIGH)
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.HIGH)
GPIO.output(MI23,GPIO.HIGH)
GPIO.output(MI24,GPIO.LOW)
time.sleep(0.03)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI12,GPIO.HIGH)
GPIO.output(MI13,GPIO.LOW)
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.HIGH)
GPIO.output(MI23,GPIO.LOW)
GPIO.output(MI24,GPIO.LOW)
time.sleep(0.03)
GPIO.output(MI11,GPIO.HIGH)
GPIO.output(MI12,GPIO.HIGH)
GPIO.output(MI13,GPIO.LOW)
88
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.HIGH)
GPIO.output(MI22,GPIO.HIGH)
GPIO.output(MI23,GPIO.LOW)
GPIO.output(MI24,GPIO.LOW)
time.sleep(0.03)
GPIO.output(MI11,GPIO.HIGH)
GPIO.output(MI12,GPIO.LOW)
GPIO.output(MI13,GPIO.LOW)
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.HIGH)
GPIO.output(MI22,GPIO.LOW)
GPIO.output(MI23,GPIO.LOW)
GPIO.output(MI24,GPIO.LOW)
time.sleep(0.03)
elif x=='i':
GPIO.output(MI11,GPIO.HIGH)
GPIO.output(MI12,GPIO.HIGH)
GPIO.output(MI13,GPIO.LOW)
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.HIGH)
GPIO.output(MI22,GPIO.LOW)
GPIO.output(MI23,GPIO.LOW)
GPIO.output(MI24,GPIO.HIGH)
time.sleep(0.03)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI12,GPIO.HIGH)
GPIO.output(MI13,GPIO.LOW)
89
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.LOW)
GPIO.output(MI23,GPIO.HIGH)
GPIO.output(MI24,GPIO.HIGH)
time.sleep(0.03)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI12,GPIO.HIGH)
GPIO.output(MI13,GPIO.HIGH)
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.LOW)
GPIO.output(MI23,GPIO.HIGH)
GPIO.output(MI24,GPIO.LOW)
time.sleep(0.03)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI12,GPIO.LOW)
GPIO.output(MI13,GPIO.HIGH)
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.HIGH)
GPIO.output(MI23,GPIO.HIGH)
GPIO.output(MI24,GPIO.LOW)
time.sleep(0.03)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI12,GPIO.LOW)
GPIO.output(MI13,GPIO.HIGH)
GPIO.output(MI14,GPIO.HIGH)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.HIGH)
GPIO.output(MI23,GPIO.LOW)
GPIO.output(MI24,GPIO.LOW)
time.sleep(0.03)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI12,GPIO.LOW)
GPIO.output(MI13,GPIO.LOW)
GPIO.output(MI14,GPIO.HIGH)
GPIO.output(MI21,GPIO.HIGH)
GPIO.output(MI22,GPIO.HIGH)
90
GPIO.output(MI23,GPIO.LOW)
GPIO.output(MI24,GPIO.LOW)
time.sleep(0.03)
GPIO.output(MI11,GPIO.HIGH)
GPIO.output(MI12,GPIO.LOW)
GPIO.output(MI13,GPIO.LOW)
GPIO.output(MI14,GPIO.HIGH)
GPIO.output(MI21,GPIO.HIGH)
GPIO.output(MI22,GPIO.LOW)
GPIO.output(MI23,GPIO.LOW)
GPIO.output(MI24,GPIO.LOW)
time.sleep(0.03)
elif x=='d':
GPIO.output(MI11,GPIO.HIGH)
GPIO.output(MI12,GPIO.LOW)
GPIO.output(MI13,GPIO.LOW)
GPIO.output(MI14,GPIO.HIGH)
GPIO.output(MI21,GPIO.HIGH)
GPIO.output(MI22,GPIO.HIGH)
GPIO.output(MI23,GPIO.LOW)
GPIO.output(MI24,GPIO.LOW)
time.sleep(0.03)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI12,GPIO.LOW)
GPIO.output(MI13,GPIO.HIGH)
GPIO.output(MI14,GPIO.HIGH)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.HIGH)
91
GPIO.output(MI23,GPIO.LOW)
GPIO.output(MI24,GPIO.LOW)
time.sleep(0.03)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI12,GPIO.LOW)
GPIO.output(MI13,GPIO.HIGH)
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.HIGH)
GPIO.output(MI23,GPIO.HIGH)
GPIO.output(MI24,GPIO.LOW)
time.sleep(0.03)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI12,GPIO.HIGH)
GPIO.output(MI13,GPIO.HIGH)
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.LOW)
GPIO.output(MI23,GPIO.HIGH)
GPIO.output(MI24,GPIO.LOW)
time.sleep(0.03)
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI12,GPIO.HIGH)
GPIO.output(MI13,GPIO.LOW)
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.LOW)
GPIO.output(MI23,GPIO.HIGH)
GPIO.output(MI24,GPIO.HIGH)
time.sleep(0.03)
GPIO.output(MI11,GPIO.HIGH)
GPIO.output(MI12,GPIO.HIGH)
GPIO.output(MI13,GPIO.LOW)
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.LOW)
GPIO.output(MI23,GPIO.LOW)
GPIO.output(MI24,GPIO.HIGH)
time.sleep(0.03)
92
GPIO.output(MI11,GPIO.HIGH)
GPIO.output(MI12,GPIO.LOW)
GPIO.output(MI13,GPIO.LOW)
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.HIGH)
GPIO.output(MI22,GPIO.LOW)
GPIO.output(MI23,GPIO.LOW)
GPIO.output(MI24,GPIO.HIGH)
time.sleep(0.03)
elif x=='st':
print("Detenido")
GPIO.output(MI11,GPIO.LOW)
GPIO.output(MI12,GPIO.LOW)
GPIO.output(MI13,GPIO.LOW)
GPIO.output(MI14,GPIO.LOW)
GPIO.output(MI21,GPIO.LOW)
GPIO.output(MI22,GPIO.LOW)
GPIO.output(MI23,GPIO.LOW)
GPIO.output(MI24,GPIO.LOW)
time.sleep(0.03)
else:
print("Porfavor digita el comando correcto")
Fuente: El Autor
93
Anexo B: Código HTML
<!DOCTYPE HTML>
<html>
<head>
<title> Brazo Robotico </title>
</head>
</span>
<span style="display:inline-block;padding:5px;border:1px solid #fc0; font-size: 140%;font-weight:
bold;">
<br>
<button style="height: 100px; width:100px" onclick="left()"><img style="height:
65px"src="../static/A2.png"></button>
<img hspace="20" style="padding-left: 10px">
94
<button style="height: 100px; width: 100px" onclick="stop()"><img style="height:
63px"src="../static/R11.png"></button>
<img hspace="20" style="padding-left: 10px">
<button style="height: 100px; width: 100px" onclick="right()"><img style="height:
65px"src="../static/A.png"></button>
<img hspace="20" style="padding-left: 20px">
<br><br>
<button style="height: 100px; width: 100px" onclick="left()"><img style="height:
65px"src="../static/R2.png"></button>
<img hspace="20" style="padding-left: 10px">
<button style="height: 100px; width: 100px" onclick="stop()"><img style="height:
65px"src="../static/R21.png"></button>
<img hspace="20" style="padding-left: 10px">
<button style="height: 100px; width: 100px" onclick="right()"><img style="height:
65px"src="../static/C.png"></button>
<img hspace="20" style="padding-left: 20px">
<br><br>
</span>
<br><br>
</body>
</html>
Fuente: El Autor
95
__________________________
Firma del Estudiante Firma Asesor del Trabajo de Grado
Nombre: John Manuel Silva Torres Nombre: José León León
Código: 702429 C. C. 1033691508
96