Sumarização automática é o processo de encurtar um conjunto de dados computacionalmente, para criar um subconjunto (um resumo) que representa as informações mais importantes ou relevantes dentro do conteúdo original. Inteligência artificial e algoritmos são comumente desenvolvidos e empregados para alcançar esse objetivo, sendo especializados para diferentes tipos de dados.
A sumarização de texto geralmente é implementada por métodos de processamento de linguagem natural, projetados para localizar as frases mais informativas em um determinado documento.[1] Por outro lado, o conteúdo visual pode ser resumido usando algoritmos de visão computacional. A sumarização de imagem é um tema de pesquisa em andamento; as abordagens existentes geralmente tentam exibir as imagens mais representativas de uma determinada coleção de imagens ou gerar um vídeo que inclui apenas o conteúdo mais importante da coleção inteira.[2][3][4]
A sumarização de vídeo identifica e extrai do conteúdo original os quadros mais importantes (key-frames) e/ou os segmentos de vídeo mais relevantes (key-shots), normalmente de forma ordenada no tempo.[5][6][7]
História
[editar | editar código fonte]A primeira publicação na área remonta a 1957[8] (Hans Peter Luhn), iniciando com uma técnica estatística. As pesquisas aumentaram significativamente em 2015. O TF-IDF já era utilizado em 2016. A sumarização baseada em padrões era considerada a opção mais eficiente para a sumarização multidocumento até 2016. No ano seguinte, foi superada pela análise semântica latente (LSA) combinada com a fatoração de matriz não negativa (NMF). Embora esses métodos não tenham substituído outras abordagens e muitas vezes sejam combinados com elas, em 2019 os métodos de aprendizado de máquina passaram a dominar a sumarização extrativa de documentos únicos, sendo considerada uma área próxima da maturidade. Em 2020, a área continuava muito ativa, com as pesquisas se concentrando em sumarização abstrativa e em tempo real.[9]
Abordagens recentes
[editar | editar código fonte]Recentemente, o surgimento de modelos transformers, substituindo redes RNN (LSTM), proporcionou maior flexibilidade no mapeamento de sequências de texto para diferentes tipos de sequências, tornando-se uma abordagem adequada para a sumarização automática. Isso inclui modelos como T5 e Pegasus.[10][11]
Abordagens
[editar | editar código fonte]Existem duas abordagens principais para a sumarização automática: extração e abstração.
Sumarização por extração
[editar | editar código fonte]Nesta abordagem, trechos do texto original são selecionados sem modificações. Exemplos incluem frases-chave para indexação, títulos e subtítulos, além de imagens ou segmentos de vídeo representativos. No caso de textos, a extração é semelhante à leitura dinâmica, analisando primeiro resumos, títulos, figuras e parágrafos iniciais e finais antes da leitura completa.[12] A extração também é aplicada em textos clínicos, destacando informações como paciente, intervenção e resultado.[13]
Sumarização por abstração
[editar | editar código fonte]A sumarização abstrativa gera novo texto não presente no original. Essa abordagem cria uma representação semântica do conteúdo e gera um resumo semelhante ao que um humano escreveria. Pode envolver paráfrase para condensar informações de forma mais eficaz que a extração. No entanto, essa técnica é mais complexa, exigindo processamento de linguagem natural e, frequentemente, conhecimento especializado. Para imagens e vídeos, a paráfrase é ainda mais desafiadora, tornando a extração a opção predominante.[14]
Sumarização assistida
[editar | editar código fonte]Métodos híbridos combinam software e esforço humano. Na Sumarização Humana Assistida por Máquina, técnicas extrativas sugerem trechos para revisão. Já na Sumarização Automática Assistida por Humanos, um pós-processamento humano refina o resultado gerado pelo software, como ocorre com traduções automáticas.
Referências
[editar | editar código fonte]- ↑ Torres-Moreno, Juan-Manuel (2014). Automatic Text Summarization. Col: Cognitive science and knowledge management series. London: ISTE. ISBN 978-1-848-21668-6
- ↑ Pan, Xingjia; Tang, Fan; Dong, Weiming; Ma, Chongyang; Meng, Yiping; Huang, Feiyue; Lee, Tong-Yee; Xu, Changsheng (1 de abril de 2021). «Content-Based Visual Summarization for Image Collections». IEEE Transactions on Visualization and Computer Graphics (4): 2298–2312. ISSN 1077-2626. doi:10.1109/TVCG.2019.2948611
- ↑ «WIPO PUBLISHES PATENT OF KT FOR "IMAGE - ProQuest». www.proquest.com. Consultado em 19 de fevereiro de 2025
- ↑ Li Tan; Yangqiu Song; Shixia Liu; Lexing Xie (janeiro de 2012). «ImageHive: Interactive Content-Aware Image Summarization». IEEE Computer Graphics and Applications (1): 46–55. ISSN 0272-1716. doi:10.1109/MCG.2011.89. Consultado em 19 de fevereiro de 2025
- ↑ Pal, Sankar K. (2012). Handbook on Soft Computing for Video Surveillance. Col: Chapman and Hall/CRC Cryptography and Network Security Series. Alfredo Petrosino, Lucia Maddalena 1st ed ed. London: CRC Press LLC. ISBN 978-1-4398-5685-7
- ↑ Elhamifar, E.; Sapiro, G.; Vidal, R. (junho de 2012). «See all by looking at a few: Sparse modeling for finding representative objects». IEEE. doi:10.1109/cvpr.2012.6247852. Consultado em 19 de fevereiro de 2025
- ↑ Mademlis, Ioannis; Tefas, Anastasios; Nikolaidis, Nikos; Pitas, Ioannis (dezembro de 2016). «Multimodal Stereoscopic Movie Summarization Conforming to Narrative Characteristics». IEEE Transactions on Image Processing (12): 5828–5840. ISSN 1057-7149. doi:10.1109/TIP.2016.2615289. Consultado em 19 de fevereiro de 2025
- ↑ Luhn, H. P. (outubro de 1957). «A Statistical Approach to Mechanized Encoding and Searching of Literary Information». IBM Journal of Research and Development (4): 309–317. ISSN 0018-8646. doi:10.1147/rd.14.0309. Consultado em 19 de fevereiro de 2025
- ↑ Widyassari, Adhika Pramita; Rustad, Supriadi; Shidik, Guruh Fajar; Noersasongko, Edi; Syukur, Abdul; Affandy, Affandy; Setiadi, De Rosal Ignatius Moses (abril de 2022). «Review of automatic text summarization techniques & methods». Journal of King Saud University - Computer and Information Sciences (em inglês) (4): 1029–1046. doi:10.1016/j.jksuci.2020.05.006. Consultado em 19 de fevereiro de 2025
- ↑ «Exploring Transfer Learning with T5: the Text-To-Text Transfer Transformer». research.google (em inglês). Consultado em 19 de fevereiro de 2025
- ↑ Zhang, J., Zhao, Y., Saleh, M., & Liu, P. (2020, novembro). Pegasus: Pre-training with extracted gap-sentences for abstractive summarization. In International Conference on Machine Learning (pp. 11328-11339). PMLR.
- ↑ «How to Skim Text». www.dummies.com (em inglês). Consultado em 19 de fevereiro de 2025
- ↑ Afzal, Muhammad; Alam, Fakhare; Malik, Khalid Mahmood; Malik, Ghaus M. (23 de outubro de 2020). «Clinical Context–Aware Biomedical Text Summarization Using Deep Neural Network: Model Development and Validation». Journal of Medical Internet Research (em inglês) (10): e19810. PMC 7647812
. PMID 33095174. doi:10.2196/19810. Consultado em 19 de fevereiro de 2025
- ↑ Zhai, ChengXiang; Massung, Sean (2016). Text data management and analysis: a practical introduction to information retrieval and text mining. Col: ACM books. S.l.: ACM Morgan & Claypool publishers. ISBN 978-1-970001-19-8. OCLC 957355971