Análise comparativa entre redes neurais convolucionais e o ChatGPT-4 em termos de desempenho, custo e tempo de processamento na classificação de imagens
DOI:
https://doi.org/10.18265/2447-9187a2025id8688Palavras-chave:
Aprendizado Profundo, Classificação de Imagens, Classificação Multiclasse, CNNs, LLM.Resumo
Este estudo apresenta uma comparação entre os resultados obtidos de Redes Neurais Convolucionais (Convolutional Neural Networks – CNNs) e ChatGPT-4 na classificação de imagens com ou sem desfoque. Comparar CNNs com ChatGPT-4 é relevante devido ao uso crescente de grandes modelos de linguagem na sociedade, que têm sido amplamente aplicados em vários domínios, incluindo tarefas de análise de imagens. O problema de classificação abordado é multiclasse, abrangendo imagens nítidas, desfoque de movimento e desfoque devido ao desfoque. Classificar imagens com ou sem desfoque apresenta um desafio devido às semelhanças entre diferentes tipos de desfoque e à presença de desfoques leves, que podem ser difíceis de detectar. As CNNs foram treinadas e testadas usando um conjunto de dados público do Kaggle, e os mesmos conjuntos de dados foram usados para avaliar o ChatGPT-4, acompanhados por consultas cuidadosamente projetadas. O tamanho do conjunto de dados variou entre 1.050 e 8.100 imagens, totalmente balanceado entre as classes. A metodologia incluiu pré-processamento de dados com transformadas de Fourier e Haar, implementação do modelo CNN, validação do modelo e comparação com resultados obtidos usando ChatGPT-4. Essa abordagem permitiu investigar qual método fornece o melhor desempenho, custo e tempo de processamento. Após experimentar todo o conjunto de dados, o modelo CNN com o melhor desempenho usou a transformada de Haar, alcançando uma precisão média de 0,8889, uma precisão média de 0,8913, um recall médio de 0,9503 e uma Área sob a Curva (Area Under the Curve – AUC) média de 0,9503. O melhor resultado obtido com ChatGPT-4 mostrou uma precisão média de 0,8198, uma precisão média de 0,8175, um recall médio de 0,8198 e uma AUC média de 0,8649. Este tipo de análise é de grande relevância, dado o potencial do ChatGPT-4 como uma ferramenta de suporte à decisão em vários campos, como saúde e educação. Este estudo contribui para o estado da arte ao fornecer insights valiosos para pesquisadores e empresas que visam otimizar seus processos de análise de imagens usando inteligência artificial. Trabalhos futuros devem incluir uma análise mais aprofundada dos algoritmos usados, estudos controlados e a expansão do conjunto de dados.
Downloads
Referências
ABDALJALEEL, M.; BARAKAT, M.; ALSANAFI M.; SALIM, N. A.; ABAZID, H.; MALAEB, D.; MOHAMMED, A. H.; HASSAN, B. A. R.; WAYYES, A. M.; FARHAN, S. S.; KHATIB, S. E.; RAHAL, M.; SAHBAN, A.; ABDELAZIZ, D. H.; MANSOUR, N. O.; ALZAYER, R.; KHALIL, R.; FEKIH-ROMDHANE, F.; HALLIT, R.; HALLIT, S.; SALLAM, M.. A multinational study on the factors influencing university students’ attitudes and usage of ChatGPT. Scientific Reports, v. 14, 1983, 2024. DOI: https://doi.org/10.1038/s41598-024-52549-8.
ADESHOLA, I.; ADEPOJU, A. P. The opportunities and challenges of ChatGPT in education. Interactive Learning Environments, 2023. DOI: https://doi.org/10.1080/10494820.2023.2253858.
ALGHAMDI, R. Exploring the impact of ChatGPT-generated feedback on technical writing skills of computing students: a blinded study. Education and Information Technologies, v. 29, p. 18901-18926, 2024. DOI: https://doi.org/10.1007/s10639-024-12594-2.
BAHRINI, A.; KHAMOSHIFAR, M.; ABBASIMEHR, H.; RIGGS, R. J.; ESMAEILI, M.; MAJDABADKOHNE, R. M.; PASEHVAR, M. ChatGPT: applications. opportunities. and threats. In: SYSTEMS AND INFORMATION ENGINEERING DESIGN SYMPOSIUM (SIEDS), 2023, Charlottesville. Proceedings […]. Charlottesville: IEEE, 2023. p. 274-279. DOI: https://doi.org/10.1109/SIEDS58326.2023.10137850.
BROWN, T. B.; MANN, B.; RYDER, N.; SUBBIAH, M.; KAPLAN, J.; DHARIWAL, P.; NEELAKANTAN, A.; SHYAM, P.; SASTRY, G.; ASKELL, A.; AGARWAL, S.; HERBERT-VOSS, A.; KRUEGER, G.; HENIGHAN, T.; CHILD, R.; RAMESH, A.; ZIEGLER, D. M.; WU, J.; WINTER, C.; HESSE, C.; CHEN, M.; SIGLER, E.; LITWIN, M.; GRAY, S.; CHESS, B.; CLARK, J.; BERNER, C.; MCCANDLISH, S.; RADFORD, A.; SUTSKEVER, I.; AMODEI, D. Language models are few-shot learners. In: INTERNATIONAL CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS, 34., 2020, Vancouver. Proceedings […]. Vancouver: ACM, 2020, p. 1877-1901. Disponível em: https://dl.acm.org/doi/abs/10.5555/3495724.3495883. Acesso em: 24 nov. 2024.
CHEN, T.-J. A novel image blurring detection scheme using spatial autocorrelation. In: IRISH SIGNALS AND SYSTEMS CONFERENCE (ISSC), 34., 2023, Dublin. Proceedings […]. Dublin: IEEE, 2023. DOI: https://doi.org/10.1109/ISSC59246.2023.10162072.
DEPURU, S.; AMALA, K.; SUPRIYA, P.; REDDY, A. B.; GIREESH R. S. VGG-16 technique to reduce the global food crises and enhance the crop yields: deep learning approaches. In: INTERNATIONAL CONFERENCE ON APPLIED ARTIFICIAL INTELLIGENCE AND COMPUTING (ICAAIC), 3., 2024, Salem. Proceedings […]. Salem: IEEE, 2024. p. 596-599. DOI: https://doi.org/10.1109/ICAAIC60222.2024.10575562.
LEE, S.; KANG, Q.; MADIREDDY, S.; BALAPRAKASH, P.; AGRAWAL, A.; CHOUDHARY, A.; ARCHIBALD, R.; LIAO, W. Improving scalability of parallel CNN training by adjusting mini-batch size at run-time. In: IEEE INTERNATIONAL CONFERENCE ON BIG DATA (BIG DATA), 2019, Los Angeles. Proceedings […]. Los Angeles: IEEE, 2019. p. 830-839. DOI: https://doi.org/10.1109/BigData47090.2019.9006550.
LI, J.; DADA, A.; PULADI, B.; KLEESIEK, J.; EGGER, J. ChatGPT in healthcare: a taxonomy and systematic review. Computer Methods and Programs in Biomedicine, v. 245, 108013, 2024. DOI: http://dx.doi.org/10.1016/j.cmpb.2024.108013.
LI, M.; MA, Z.; WANG, Y. G.; ZHUANG, X. Fast Haar transforms for graph neural networks. Neural Networks, v. 128, n. 4, p. 188-198. 2020. DOI: http://dx.doi.org/10.1016/j.neunet.2020.04.028.
NAZ, I.; ROBERTSON, R. Exploring the feasibility and efficacy of ChatGPT3 for personalized feedback in teaching. Electronic Journal of e-Learning, v. 22, n. 2, p. 98-111, 2024. DOI: https://doi.org/10.34190/ejel.22.2.3345.
PRAVEEN, B.; ISRAVEL, D. P.; DHAS, J. P. M. VGG-16 based deep learning approach for plant species detection. In: INTERNATIONAL CONFERENCE ON ADVANCES IN MODERN AGE TECHNOLOGIES FOR HEALTH AND ENGINEERING SCIENCE (AMATHE), 2024, Shivamogga. Proceedings […]. Shivamogga: IEEE, 2024. p. 1-6. DOI: http://dx.doi.org/10.1109/AMATHE61652.2024.10582179.
PUTRANTO, A.; LIN, T.-H.; HUANG, B.-X. Deep learning-integrated electromagnetic imaging for evaluating reinforced concrete structures in water-contact scenarios. Automation in Construction, v. 164, 105459, 2024. DOI: https://doi.org/10.1016/j.autcon.2024.105459.
RAO, K. R.; KIM, D. N.; HWANG, J. J. Fast Fourier transform: algorithms and applications. Dordrecht: Springer, 2010. DOI: https://doi.org/10.1007/978-1-4020-6629-0.
SILVA, L. C.; CÉSAR SOBRINHO, Á. A. C.; CORDEIRO, ,T. D.; MELO, R. F.; BITTENCOURT, I. I.; MARQUES, L. B.; MATOS, D. D. M. C.; SILVA, A. P.; ISOTANI, S. Applications of convolutional neural networks in education: a systematic literature review. Expert Systems with Applications, v. 231, 120621, 2023. DOI: https://doi.org/10.1016/j.eswa.2023.120621.
SINGH, J.; ZOUHAR, V.; SACHAN, M. Enhancing textbooks with visuals from the web for improved learning. In: CONFERENCE ON EMPIRICAL METHODS IN NATURAL LANGUAGE PROCESSING (EMNLP 2023), 2023, Singapore. Proceedings […]. Singapore: ACL, 2023. p. 11931-11944. DOI: https://doi.org/10.3929/ethz-b-000653494.
SOBAIH, A. E. E.; ELSHAER, I. A.; HASANEIN, A. M. Examining students’ acceptance and use of ChatGPT in Saudi Arabian higher education. European Journal of Investigation in Health. Psychology and Education, v. 14, n. 3, p. 709-721, 2024. DOI: http://dx.doi.org/10.3390/ejihpe14030047.
SOBRINHO. Á.; BITTENCOURT, I. I.; SILVEIRA, A. C. M.; SILVA, A. P.; DERMEVAL, D.; MARQUES, L. B.; RODRIGUES, N. C. I.; SOUZA, A. C. S.; FERREIRA, R.; ISOTANI, S. Towards digital transformation of the validation and triage process of textbooks in the Brazilian educational policy. Sustainability, v. 15, n. 7, 5861, 2023. DOI: https://doi.org/10.3390/su15075861.
TAN, M.; LE, Q. EfficientNet: rethinking model scaling for convolutional neural networks. In: INTERNATIONAL CONFERENCE ON MACHINE LEARNING (ICML), 3., 2019, Long Beach. Proceedings […]. Long Beach: ICML, 2019. p. 6105-6114. Disponível em: http://proceedings.mlr.press/v97/tan19a.html. Acesso em: 24 nov. 2024.
TIWARI, S. A blur classification approach using deep convolution neural network. International Journal of Information System Modeling and Design (IJISMD), v. 11, n. 1, p. 93-111, 2020. DOI: https://doi.org/10.4018/IJISMD.2020010106.
VASWANI, A.; SHAZEER, N.; USZKOREIT, J.; JONES, L.; GOMEZ, A. N.; KAISER, L.; POLOSHUKHIN, I. Attention is all you need. In: CONFERENCE ON NEURAL PROCESSING SYSYTEMS (NIPS 2017), 31., Long Beach. Proceedings […]. Long Beach, 2017. Disponível em: https://papers.nips.cc/paper_files/paper/2017/hash/3f5ee243547dee91fbd053c1c4a845aa-Abstract.html. Acesso em: 24 nov. 20204.
WANG, R.; LI, W.; ZHANG, L. Blur image identification with ensemble convolution neural networks. Signal Processing, v. 155, p. 73-82, 2019. DOI: https://doi.org/10.1016/j.sigpro.2018.09.027.
WANG, R.; LI, W.; LI, R.; ZHANG, L. Automatic blur type classification via ensemble SVM. Signal Processing: Image Communication, v. 71, p. 24-35, 2019. DOI: https://doi.org/10.1016/j.image.2018.08.003.
XU, X.; THIEN, L. M. Unleashing the power of perceived enjoyment: exploring Chinese undergraduate EFL learners’ intention to use ChatGPT for English learning. Journal of Applied Research in Higher Education, Ahead of Print, 2024. DOI: https://doi.org/10.1108/JARHE-12-2023-0555.
Downloads
Publicado
Edição
Seção
Licença
Copyright (c) 2024 Andrei Lima, Daniel Rosa, Álvaro Sobrinho, Thiago Cordeiro, Diego Dermeval
Este trabalho está licenciado sob uma licença Creative Commons Attribution 4.0 International License.
• O(s) autor(es) autoriza(m) a publicação do artigo na revista;
• O(s) autor(es) garante(m) que a contribuição é original e inédita e que não está em processo de avaliação em outra(s) revista(s), nem esteja publicado em anais de congressos e/ou portais institucionais;
• A revista não se responsabiliza pelas opiniões, ideias e conceitos emitidos nos textos, por serem de inteira responsabilidade de seu(s) autor(es). Opiniões e perspectivas expressas no texto, assim como a precisão e a procedência das citações, são de responsabilidade exclusiva do(s) autor(es), e contribuem para a promoção dos:
- Princípios FAIR (Findable, Accessible, Interoperable, and Reusable – localizável, acessível, interoperável e reutilizável);
- Princípios DEIA (diversidade, equidade, inclusão e acessibilidade).
• É reservado aos editores o direito de proceder ajustes textuais e de adequação do artigos às normas da publicação.
Responsabilidades dos autores e transferência de direitos autorais
Os autores devem declarar a originalidade do estudo, bem como o fato de que este não foi publicado anteriormente ou está sendo considerado para publicação em outro meio, como periódicos, anais de eventos ou livros. Ao autorizarem a publicação do artigo na Revista Principia, os autores devem também responsabilizar-se pelo conteúdo do manuscrito, cujos direitos autorais, em caso de aprovação, passarão a ser propriedade exclusiva da revista. A Declaração de Responsabilidades dos Autores e Transferência de Direitos Autorais deverá ser assinada por todos os autores e anexada ao sistema como documento suplementar durante o processo de submissão. Clique no link abaixo para fazer o download do modelo.
Esta revista, seguindo as recomendações do movimento de Acesso Aberto, proporciona seu conteúdo em Full Open Access. Assim os autores conservam todos seus direitos permitindo que a Revista Principia possa publicar seus artigos e disponibilizar pra toda a comunidade.
A Revista Principia adota a licença Creative Commons 4.0 do tipo atribuição (CC-BY). Esta licença permite que outros distribuam, remixem, adaptem e criem a partir do seu trabalho, inclusive para fins comerciais, desde que lhe atribuam o devido crédito pela criação original.
Os autores estão autorizados a enviar a versão do artigo publicado nesta revista em repositório institucionais, com reconhecimento de autoria e publicação inicial na Revista Principia.