WikiMini

Sumarização automática

Sumarização automática é o processo de encurtar um conjunto de dados computacionalmente, para criar um subconjunto (um resumo) que representa as informações mais importantes ou relevantes dentro do conteúdo original. Inteligência artificial e algoritmos são comumente desenvolvidos e empregados para alcançar esse objetivo, sendo especializados para diferentes tipos de dados.

A sumarização de texto geralmente é implementada por métodos de processamento de linguagem natural, projetados para localizar as frases mais informativas em um determinado documento.[1] Por outro lado, o conteúdo visual pode ser resumido usando algoritmos de visão computacional. A sumarização de imagem é um tema de pesquisa em andamento; as abordagens existentes geralmente tentam exibir as imagens mais representativas de uma determinada coleção de imagens ou gerar um vídeo que inclui apenas o conteúdo mais importante da coleção inteira.[2][3][4]

A sumarização de vídeo identifica e extrai do conteúdo original os quadros mais importantes (key-frames) e/ou os segmentos de vídeo mais relevantes (key-shots), normalmente de forma ordenada no tempo.[5][6][7]

A primeira publicação na área remonta a 1957[8] (Hans Peter Luhn), iniciando com uma técnica estatística. As pesquisas aumentaram significativamente em 2015. O TF-IDF já era utilizado em 2016. A sumarização baseada em padrões era considerada a opção mais eficiente para a sumarização multidocumento até 2016. No ano seguinte, foi superada pela análise semântica latente (LSA) combinada com a fatoração de matriz não negativa (NMF). Embora esses métodos não tenham substituído outras abordagens e muitas vezes sejam combinados com elas, em 2019 os métodos de aprendizado de máquina passaram a dominar a sumarização extrativa de documentos únicos, sendo considerada uma área próxima da maturidade. Em 2020, a área continuava muito ativa, com as pesquisas se concentrando em sumarização abstrativa e em tempo real.[9]

Abordagens recentes

[editar | editar código fonte]

Recentemente, o surgimento de modelos transformers, substituindo redes RNN (LSTM), proporcionou maior flexibilidade no mapeamento de sequências de texto para diferentes tipos de sequências, tornando-se uma abordagem adequada para a sumarização automática. Isso inclui modelos como T5 e Pegasus.[10][11]

Existem duas abordagens principais para a sumarização automática: extração e abstração.

Sumarização por extração

[editar | editar código fonte]

Nesta abordagem, trechos do texto original são selecionados sem modificações. Exemplos incluem frases-chave para indexação, títulos e subtítulos, além de imagens ou segmentos de vídeo representativos. No caso de textos, a extração é semelhante à leitura dinâmica, analisando primeiro resumos, títulos, figuras e parágrafos iniciais e finais antes da leitura completa.[12] A extração também é aplicada em textos clínicos, destacando informações como paciente, intervenção e resultado.[13]

Sumarização por abstração

[editar | editar código fonte]

A sumarização abstrativa gera novo texto não presente no original. Essa abordagem cria uma representação semântica do conteúdo e gera um resumo semelhante ao que um humano escreveria. Pode envolver paráfrase para condensar informações de forma mais eficaz que a extração. No entanto, essa técnica é mais complexa, exigindo processamento de linguagem natural e, frequentemente, conhecimento especializado. Para imagens e vídeos, a paráfrase é ainda mais desafiadora, tornando a extração a opção predominante.[14]

Sumarização assistida

[editar | editar código fonte]

Métodos híbridos combinam software e esforço humano. Na Sumarização Humana Assistida por Máquina, técnicas extrativas sugerem trechos para revisão. Já na Sumarização Automática Assistida por Humanos, um pós-processamento humano refina o resultado gerado pelo software, como ocorre com traduções automáticas.

  1. Torres-Moreno, Juan-Manuel (2014). Automatic Text Summarization. Col: Cognitive science and knowledge management series. London: ISTE. ISBN 978-1-848-21668-6 
  2. Pan, Xingjia; Tang, Fan; Dong, Weiming; Ma, Chongyang; Meng, Yiping; Huang, Feiyue; Lee, Tong-Yee; Xu, Changsheng (1 de abril de 2021). «Content-Based Visual Summarization for Image Collections». IEEE Transactions on Visualization and Computer Graphics (4): 2298–2312. ISSN 1077-2626. doi:10.1109/TVCG.2019.2948611 
  3. «WIPO PUBLISHES PATENT OF KT FOR "IMAGE - ProQuest». www.proquest.com. Consultado em 19 de fevereiro de 2025 
  4. Li Tan; Yangqiu Song; Shixia Liu; Lexing Xie (janeiro de 2012). «ImageHive: Interactive Content-Aware Image Summarization». IEEE Computer Graphics and Applications (1): 46–55. ISSN 0272-1716. doi:10.1109/MCG.2011.89. Consultado em 19 de fevereiro de 2025 
  5. Pal, Sankar K. (2012). Handbook on Soft Computing for Video Surveillance. Col: Chapman and Hall/CRC Cryptography and Network Security Series. Alfredo Petrosino, Lucia Maddalena 1st ed ed. London: CRC Press LLC. ISBN 978-1-4398-5685-7 
  6. Elhamifar, E.; Sapiro, G.; Vidal, R. (junho de 2012). «See all by looking at a few: Sparse modeling for finding representative objects». IEEE. doi:10.1109/cvpr.2012.6247852. Consultado em 19 de fevereiro de 2025 
  7. Mademlis, Ioannis; Tefas, Anastasios; Nikolaidis, Nikos; Pitas, Ioannis (dezembro de 2016). «Multimodal Stereoscopic Movie Summarization Conforming to Narrative Characteristics». IEEE Transactions on Image Processing (12): 5828–5840. ISSN 1057-7149. doi:10.1109/TIP.2016.2615289. Consultado em 19 de fevereiro de 2025 
  8. Luhn, H. P. (outubro de 1957). «A Statistical Approach to Mechanized Encoding and Searching of Literary Information». IBM Journal of Research and Development (4): 309–317. ISSN 0018-8646. doi:10.1147/rd.14.0309. Consultado em 19 de fevereiro de 2025 
  9. Widyassari, Adhika Pramita; Rustad, Supriadi; Shidik, Guruh Fajar; Noersasongko, Edi; Syukur, Abdul; Affandy, Affandy; Setiadi, De Rosal Ignatius Moses (abril de 2022). «Review of automatic text summarization techniques & methods». Journal of King Saud University - Computer and Information Sciences (em inglês) (4): 1029–1046. doi:10.1016/j.jksuci.2020.05.006. Consultado em 19 de fevereiro de 2025 
  10. «Exploring Transfer Learning with T5: the Text-To-Text Transfer Transformer». research.google (em inglês). Consultado em 19 de fevereiro de 2025 
  11. Zhang, J., Zhao, Y., Saleh, M., & Liu, P. (2020, novembro). Pegasus: Pre-training with extracted gap-sentences for abstractive summarization. In International Conference on Machine Learning (pp. 11328-11339). PMLR.
  12. «How to Skim Text». www.dummies.com (em inglês). Consultado em 19 de fevereiro de 2025 
  13. Afzal, Muhammad; Alam, Fakhare; Malik, Khalid Mahmood; Malik, Ghaus M. (23 de outubro de 2020). «Clinical Context–Aware Biomedical Text Summarization Using Deep Neural Network: Model Development and Validation». Journal of Medical Internet Research (em inglês) (10): e19810. PMC 7647812Acessível livremente. PMID 33095174. doi:10.2196/19810. Consultado em 19 de fevereiro de 2025 
  14. Zhai, ChengXiang; Massung, Sean (2016). Text data management and analysis: a practical introduction to information retrieval and text mining. Col: ACM books. S.l.: ACM Morgan & Claypool publishers. ISBN 978-1-970001-19-8. OCLC 957355971