MODELO DE APRENDIZAJE PROFUNDO PARA LA SEGMENTACIÓN DE IMÁGENES APLICADO A HOJAS DE SOJA

Resumen

La segmentación de imágenes es un paso fundamental en el procesamiento de imágenes. Este paso define regiones de interés para facilitar la identificación de objetos y el reconocimiento de patrones. Los métodos tradicionales de segmentación son muy sensibles a las variaciones ambientales y de iluminación. Por consiguiente, los modelos de aprendizaje profundo ofrecen técnicas modernas de procesamiento de imágenes para abordar estos problemas. Las redes neuronales convolucionales han evolucionado y se han consolidado como una de las grandes promesas en el campo del procesamiento de imágenes basado en aprendizaje profundo. En este trabajo, investigamos y modificamos la red neuronal deconvolucional con el objetivo de segmentar imágenes de hojas de soja. Esta investigación propone una arquitectura de aprendizaje profundo optimizada para la segmentación de hojas de soja con bajo costo computacional. Mediante una metodología cuantitativa aplicada y una configuración experimental, la propuesta se evalúa y compara con modelos tradicionales y otras redes neuronales convolucionales establecidas. La validación utiliza métricas estadísticas y pruebas de estrés de ruido para demostrar la robustez y precisión de la propuesta.  Los resultados se comparan con varios métodos tradicionales y con el aprendizaje automático supervisado tradicional para la tarea de segmentación de imágenes. El rendimiento se evaluó utilizando las métricas de Dice, Recall y Specificity. El enfoque propuesto alcanzó valores de precisión prometedores, superiores al 95%, en todos los conjuntos de datos de prueba, incluso con la inserción de alteraciones en las imágenes.

Biografía del autor/a

Maicon A. Sartin, Universidade do Estado de Mato Grosso - UNEMAT

Doctor en Ingeniería Eléctrica y magíster en Ciencias de la Computación, graduado en Ingeniería de la Computación. Profesor adjunto en la Universidade do Estado de Mato Grosso.

Benevid Felix da Silva, Universidade do Estado de Mato Grosso - UNEMAT

Doctor y magíster en Ciencias de la Computación, graduado en Licenciatura en Computación. Profesor adjunto en la Universidade do Estado de Mato Grosso.

Ivan Luiz Pedroso Pires, Universidade do Estado de Mato Grosso - UNEMAT

 Doctor y magíster en Ciencias de la Computación, graduado en Licenciatura en Computación. Profesor adjunto en la Universidade do Estado de Mato Grosso.

Silvio Cesar Garcia Granja, Universidade do Estado de Mato Grosso - UNEMAT

Doctor en Ingeniería Eléctrica y magíster en Física, graduado en Física. Profesor adjunto en la Universidade do Estado de Mato Grosso.

Referencias

Aich, S., & Stavness, I. (2017). Leaf counting with deep convolutional and deconvolutional networks. In Proceedings of the IEEE international conference on computer vision workshops (pp. 2080-2089).

Badrinarayanan, V., Kendall, A., & Cipolla, R. (2017). Segnet: A deep convolutional encoder-decoder architecture for image segmentation. IEEE transactions on pattern analysis and machine intelligence, 39(12), 2481-2495.

Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs. IEEE transactions on pattern analysis and machine intelligence, 40(4), 834-848.

Chen, X., Qiu, X., Zhu, C., Liu, P., & Huang, X. J. (2015, September). Long short-term memory neural networks for chinese word segmentation. In Proceedings of the 2015 conference on empirical methods in natural language processing (pp. 1197-1206).

Chithambaram, T., & Perumal, K. (2017, September). Brain tumor segmentation using genetic algorithm and ANN techniques. In 2017 IEEE international conference on power, control, signals and instrumentation engineering (ICPCSI) (pp. 970-982). IEEE.

Deng, L., & Yu, D. (2014). Deep learning: methods and applications. Foundations and Trends& in Signal Processing, 7(3-4), 197-387.

Dyrmann, M., Karstoft, H., & Midtiby, H. S. (2016). Plant species classification using deep convolutional neural network. Biosystems engineering, 151, 72-80.

Gatys, L. A., Ecker, A. S., & Bethge, M. (2016). Image style transfer using convolutional neural networks. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 2414-2423).

He, K., Gkioxari, G., Dollár, P., & Girshick, R. (2017). Mask r-cnn. In Proceedings of the IEEE international conference on computer vision (pp. 2961-2969).

Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). Imagenet classification with deep convolutional neural networks. Advances in neural information processing systems, 25.

Isola, P., Zhu, J. Y., Zhou, T., & Efros, A. A. (2017). Image-to-image translation with conditional adversarial networks. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 1125-1134).

Johnson, J., Karpathy, A., & Fei-Fei, L. (2016). Densecap: Fully convolutional localization networks for dense captioning. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 4565-4574).

Lin, K., Gong, L., Huang, Y., Liu, C., & Pan, J. (2019). Deep learning-based segmentation and quantification of cucumber powdery mildew using convolutional neural network. Frontiers in plant science, 10, 155.

Long, J., Shelhamer, E., & Darrell, T. (2015). Fully convolutional networks for semantic segmentation. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 3431-3440).

Marsland, S. (2015). Machine learning: An algorithmic perspective (2nd ed.). Chapman and Hall/CRC.

Milletari, F., Navab, N., & Ahmadi, S. A. (2016, October). V-net: Fully convolutional neural networks for volumetric medical image segmentation. In 2016 fourth international conference on 3D vision (3DV) (pp. 565-571). Ieee.

Noh, H., Hong, S., & Han, B. (2015). Learning deconvolution network for semantic segmentation. In Proceedings of the IEEE international conference on computer vision (pp. 1520-1528).

OpenAI. (2026). ChatGPT com geração de imagens DALL·E [Software de inteligência artificial]. https://openai.com

Papandreou, G., Chen, L., Murphy, K., & Yuille, A. L. (2015). Weakly-and semi-supervised learning of a DCNN for semantic image segmentation. CoRR abs/1502.02734 (2015). arXiv preprint arXiv:1502.02734.

Rejeb, I. B., Ouni, S., & Zagrouba, E. (2017, October). Image retrieval using spatial dominant color descriptor. In 2017 IEEE/ACS 14th International Conference on Computer Systems and Applications (AICCSA) (pp. 788-795). IEEE.

Ren, M. & Zemel, R. S. (2016). End-to-End Instance Segmentation and Counting with Recurrent Attention. CoRR, 2016. Disponível em: http://arxiv.org/abs/1605.09410 Acesso em: 11 out. 2025.

Ronneberger, O., Fischer, P., & Brox, T. (2015, October). U-net: Convolutional networks for biomedical image segmentation. In International Conference on Medical image computing and computer-assisted intervention (pp. 234-241). Cham: Springer international publishing.

Sartin, M. A. (2014). Projeto e implementação de redes neurais artificiais em distintos níveis de abstrações para o reconhecimento de deficiências de diversos macronutrientes e cultivares. (2014). Tese (doutorado) - Universidade Estadual Paulista Júlio de Mesquita Filho, Faculdade de Engenharia de Ilha Solteira.

Sartin, M., Da Silva, A., Kappes, C., & S. Filho, T. (2020). Classifying the Macronutrient Deficiency in Soybean Leaf with Deep Learning. In Anais do XVII Encontro Nacional de Inteligência Artificial e Computacional, (pp. 638-649). Porto Alegre: SBC DOI: https://doi.org/10.5753/eniac.2020.12166

Sartin, M. A., da Silva, A. C. R., & Kappes, C. (2022). Recognizing Potassium Deficiency Symptoms in Soybean with ANN on FPGA. Applied Engineering in Agriculture, 38(2), 445-453.

Scharr, H. et al. Leaf segmentation in plant phenotyping: a collation study. Machine vision and applications, v. 27, p. 585–606, 2016.

Simonyan, K., & Zisserman, A. (2014). Very deep convolutional networks for large-scale image recognition. arXiv preprint arXiv:1409.1556.

Singh, K., Rajora, S., Vishwakarma, D. K., Tripathi, G., Kumar, S., & Walia, G. S. (2020). Crowd anomaly detection using aggregation of ensembles of fine-tuned convnets. Neurocomputing, 371, 188-198.

Szegedy, C., Liu, W., Jia, Y., Sermanet, P., Reed, S., Anguelov, D., ... & Rabinovich, A. (2015). Going deeper with convolutions. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 1-9).

Szegedy, C., Loffe, S., Vanhoucke, V., & Alemi, A. (2017, February). Inception-v4, inception-resnet and the impact of residual connections on learning. In Proceedings of the AAAI conference on artificial intelligence (Vol. 31, No. 1).

Taha, A. A., & Hanbury, A. (2015). Metrics for evaluating 3D medical image segmentation: analysis, selection, and tool. BMC medical imaging, 15(1), 29.

Tran, P. V. (2016). A fully convolutional neural network for cardiac segmentation in short-axis MRI. arXiv preprint arXiv:1604.00494.

Tuggener, L., Elezi, I., Schmidhuber, J., Pelillo, M., & Stadelmann, T. (2018). DeepScores--A dataset for segmentation, detection and classification of tiny objects. arXiv preprint arXiv:1804.00525.

Zeiler, M. D., & Fergus, R. (2014, September). Visualizing and understanding convolutional networks. In European conference on computer vision (pp. 818-833). Cham: Springer International Publishing.

Cómo citar

A. Sartin, M. ., Felix da Silva, B., Luiz Pedroso Pires, I., & Cesar Garcia Granja, S. (2026). MODELO DE APRENDIZAJE PROFUNDO PARA LA SEGMENTACIÓN DE IMÁGENES APLICADO A HOJAS DE SOJA. RECIMA21 - Revista Científica Multidisciplinar - ISSN 2675-6218, 7(5), e757929. https://doi.org/10.47820/recima21.v7i5.7929