MODELO DE APRENDIZADO PROFUNDO EM SEGMENTAÇÃO DE IMAGENS APLICADO A FOLHAS DE SOJA
Resumo
A segmentação de imagens é uma etapa de extrema relevância no processamento de imagens. Essa etapa define regiões de interesse em imagens para facilitar a identificação de objetos e o reconhecimento de padrões em imagens. Métodos tradicionais de segmentação de imagens são muito sensíveis a variação de ambiente e luminosidade, com isso os modelos de Aprendizado Profundo (Deep Learning) consistem em técnicas modernas de processamento de imagens para resolver tais problemas. As redes neurais convolucionais têm evoluído e se estabelecido como uma das grandes promessas na área de processamento de imagens baseada em Aprendizado Profundo. Neste trabalho, investigamos e modificamos uma rede neural deconvolucional com o objetivo de segmentar imagens em folhas de soja. Esta pesquisa propõe uma arquitetura de aprendizado profundo otimizada para a segmentação de folhas de soja com baixo custo computacional. Por meio de uma metodologia aplicada, quantitativa e uma configuração experimental, a proposta tem sua avaliação e comparação com modelos tradicionais e outras redes neurais convolucionais consolidadas. A validação utiliza métricas estatísticas e testes de estresse com ruídos para comprovar a robustez e a precisão da proposta. Os resultados são comparados com diversos modelos para a tarefa de segmentação de imagens. O desempenho foi avaliado pelas métricas de Dice, Recall e Specificity. A abordagem proposta alcançou valores promissores de acurácia acima de 95% em todos os datasets de teste, mesmo com inserção de alterações nas imagens.
Biografia do Autor
Doutor em Engenharia Elétrica e mestre em Ciência da Computação, graduado em Engenharia da Computação. Professor adjunto na Universidade do Estado de Mato Grosso (UNEMAT).
Doutor e mestre em Ciência da Computação, graduado em Licenciatura em Computação. Professor adjunto na Universidade do Estado de Mato Grosso (UNEMAT).
Doutor e mestre em Ciência da Computação, graduado em Licenciatura em Computação. Professor adjunto na Universidade do Estado de Mato Grosso (UNEMAT).
Doutor em Engenharia Elétrica e mestre em Física, graduado em Física. Professor adjunto na Universidade do Estado de Mato Grosso (UNEMAT).
Referências
Aich, S., & Stavness, I. (2017). Leaf counting with deep convolutional and deconvolutional networks. In Proceedings of the IEEE international conference on computer vision workshops (pp. 2080-2089).
Badrinarayanan, V., Kendall, A., & Cipolla, R. (2017). Segnet: A deep convolutional encoder-decoder architecture for image segmentation. IEEE transactions on pattern analysis and machine intelligence, 39(12), 2481-2495.
Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs. IEEE transactions on pattern analysis and machine intelligence, 40(4), 834-848.
Chen, X., Qiu, X., Zhu, C., Liu, P., & Huang, X. J. (2015, September). Long short-term memory neural networks for chinese word segmentation. In Proceedings of the 2015 conference on empirical methods in natural language processing (pp. 1197-1206).
Chithambaram, T., & Perumal, K. (2017, September). Brain tumor segmentation using genetic algorithm and ANN techniques. In 2017 IEEE international conference on power, control, signals and instrumentation engineering (ICPCSI) (pp. 970-982). IEEE.
Deng, L., & Yu, D. (2014). Deep learning: methods and applications. Foundations and Trends& in Signal Processing, 7(3-4), 197-387.
Dyrmann, M., Karstoft, H., & Midtiby, H. S. (2016). Plant species classification using deep convolutional neural network. Biosystems engineering, 151, 72-80.
Gatys, L. A., Ecker, A. S., & Bethge, M. (2016). Image style transfer using convolutional neural networks. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 2414-2423).
He, K., Gkioxari, G., Dollár, P., & Girshick, R. (2017). Mask r-cnn. In Proceedings of the IEEE international conference on computer vision (pp. 2961-2969).
Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). Imagenet classification with deep convolutional neural networks. Advances in neural information processing systems, 25.
Isola, P., Zhu, J. Y., Zhou, T., & Efros, A. A. (2017). Image-to-image translation with conditional adversarial networks. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 1125-1134).
Johnson, J., Karpathy, A., & Fei-Fei, L. (2016). Densecap: Fully convolutional localization networks for dense captioning. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 4565-4574).
Lin, K., Gong, L., Huang, Y., Liu, C., & Pan, J. (2019). Deep learning-based segmentation and quantification of cucumber powdery mildew using convolutional neural network. Frontiers in plant science, 10, 155.
Long, J., Shelhamer, E., & Darrell, T. (2015). Fully convolutional networks for semantic segmentation. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 3431-3440).
Marsland, S. (2015). Machine learning: An algorithmic perspective (2nd ed.). Chapman and Hall/CRC.
Milletari, F., Navab, N., & Ahmadi, S. A. (2016, October). V-net: Fully convolutional neural networks for volumetric medical image segmentation. In 2016 fourth international conference on 3D vision (3DV) (pp. 565-571). Ieee.
Noh, H., Hong, S., & Han, B. (2015). Learning deconvolution network for semantic segmentation. In Proceedings of the IEEE international conference on computer vision (pp. 1520-1528).
OpenAI. (2026). ChatGPT com geração de imagens DALL·E [Software de inteligência artificial]. https://openai.com
Papandreou, G., Chen, L., Murphy, K., & Yuille, A. L. (2015). Weakly-and semi-supervised learning of a DCNN for semantic image segmentation. CoRR abs/1502.02734 (2015). arXiv preprint arXiv:1502.02734.
Rejeb, I. B., Ouni, S., & Zagrouba, E. (2017, October). Image retrieval using spatial dominant color descriptor. In 2017 IEEE/ACS 14th International Conference on Computer Systems and Applications (AICCSA) (pp. 788-795). IEEE.
Ren, M. & Zemel, R. S. (2016). End-to-End Instance Segmentation and Counting with Recurrent Attention. CoRR, 2016. Disponível em: http://arxiv.org/abs/1605.09410 Acesso em: 11 out. 2025.
Ronneberger, O., Fischer, P., & Brox, T. (2015, October). U-net: Convolutional networks for biomedical image segmentation. In International Conference on Medical image computing and computer-assisted intervention (pp. 234-241). Cham: Springer international publishing.
Sartin, M. A. (2014). Projeto e implementação de redes neurais artificiais em distintos níveis de abstrações para o reconhecimento de deficiências de diversos macronutrientes e cultivares. (2014). Tese (doutorado) - Universidade Estadual Paulista Júlio de Mesquita Filho, Faculdade de Engenharia de Ilha Solteira.
Sartin, M., Da Silva, A., Kappes, C., & S. Filho, T. (2020). Classifying the Macronutrient Deficiency in Soybean Leaf with Deep Learning. In Anais do XVII Encontro Nacional de Inteligência Artificial e Computacional, (pp. 638-649). Porto Alegre: SBC DOI: https://doi.org/10.5753/eniac.2020.12166
Sartin, M. A., da Silva, A. C. R., & Kappes, C. (2022). Recognizing Potassium Deficiency Symptoms in Soybean with ANN on FPGA. Applied Engineering in Agriculture, 38(2), 445-453.
Scharr, H. et al. Leaf segmentation in plant phenotyping: a collation study. Machine vision and applications, v. 27, p. 585–606, 2016.
Simonyan, K., & Zisserman, A. (2014). Very deep convolutional networks for large-scale image recognition. arXiv preprint arXiv:1409.1556.
Singh, K., Rajora, S., Vishwakarma, D. K., Tripathi, G., Kumar, S., & Walia, G. S. (2020). Crowd anomaly detection using aggregation of ensembles of fine-tuned convnets. Neurocomputing, 371, 188-198.
Szegedy, C., Liu, W., Jia, Y., Sermanet, P., Reed, S., Anguelov, D., ... & Rabinovich, A. (2015). Going deeper with convolutions. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 1-9).
Szegedy, C., Loffe, S., Vanhoucke, V., & Alemi, A. (2017, February). Inception-v4, inception-resnet and the impact of residual connections on learning. In Proceedings of the AAAI conference on artificial intelligence (Vol. 31, No. 1).
Taha, A. A., & Hanbury, A. (2015). Metrics for evaluating 3D medical image segmentation: analysis, selection, and tool. BMC medical imaging, 15(1), 29.
Tran, P. V. (2016). A fully convolutional neural network for cardiac segmentation in short-axis MRI. arXiv preprint arXiv:1604.00494.
Tuggener, L., Elezi, I., Schmidhuber, J., Pelillo, M., & Stadelmann, T. (2018). DeepScores--A dataset for segmentation, detection and classification of tiny objects. arXiv preprint arXiv:1804.00525.
Zeiler, M. D., & Fergus, R. (2014, September). Visualizing and understanding convolutional networks. In European conference on computer vision (pp. 818-833). Cham: Springer International Publishing.
