Propuesta metodológica para la recuperación de información documental: integración de grafos de conocimiento y redes neuronales
PDF

Palabras clave

Recuperación de información
Grafos de conocimiento (KG)
Red de atención gráfica (GAT)

Cómo citar

Polo-Bautista, L. R., & Casique Vasquez, R. (2025). Propuesta metodológica para la recuperación de información documental: integración de grafos de conocimiento y redes neuronales. Investigación Bibliotecológica: rchivonomía, bibliotecología información, 39(105), 141–163. https://doi.org/10.22201/iibi.24488321xe.2025.105.59051
Métricas de PLUMX

Resumen

El uso de grafos para modelar relaciones complejas entre entidades se ha consolidado como una herramienta importante en la recuperación de información documental. De esta forma, el objetivo de este trabajo es proponer una metodología basada en redes neuronales de grafos (GNN) para mejorar la recuperación de información documental mediante grafos de conocimiento (KG). Los documentos se transforman en un grafo de conocimiento construido con lemas y frases nominales sobre el cual se inicializan incrustaciones procesadas con una red de atención gráfica (GAT). Ante una consulta, el sistema extrae un subgrafo del grafo de conocimiento global, ajusta las representaciones y genera respuestas concisas y fácticas. La arquitectura se contrasta con la referencia del gran modelo de lenguaje (LLM) Llama 3.1 usando tres métricas principales: número de tókenes de la respuesta, similitud con el documento de origen y tiempo de procesamiento. Los resultados teóricos y experimentales muestran mejoras en la obtención de respuestas precisas y contextualmente pertinentes.

https://doi.org/10.22201/iibi.24488321xe.2025.105.59051
PDF

Citas

Ávila-Barrientos, Eder. 2022. “Recuperación de información con linked open data”. Investigación Bibliotecológica: archivonomía, bibliotecología e información 36 (91): 125-46. https://doi.org/10.22201/iibi.24488321xe.2022.91.58567

Chen, Deli, Yankai Lin, Wei Li, Peng Li, Jie Zhou y Xu Sun. 2019. “Measuring and Relieving the Over-smoothing Problem for Graph Neural Networks from the Topological View”. Arxiv. https://arxiv.org/abs/1909.03211

Croft, W. Bruce, Donald Metzler y Trevor Strohman. 2010. Search Engines / Information Retrieval in Practice. Addison-Wesley.

Devlin, Jacob, Ming-Wei Chang, Kenton Lee y Kristina Toutanova. 2019. “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”. En Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics / Human Language Technologies Volume 1 (Long and Short Papers), editado por Jill Burstein, Christy Doran y Thamar Solorio, 4171-86. Association for Computational Linguistics. https://doi.org/10.18653/v1/N19-1423

Ding, Linyi, Sizhe Zhou, Jinfeng Xiao y Jiawei Han. 2024. “Automated Construction of Theme-Specific Knowledge Graphs”. Arxiv. https://arxiv.org/abs/2404.19146

Gelbukh, Alexander, y Grigori Sidorov. 2006. Procesamiento automático del español con enfoque en recursos léxicos grandes. Centro de Investigación en Computación, Instituto Politécnico Nacional.

Goldberg, Yoav, y Omer Levy. 2014. “Word2vec Explained: Deriving Mikolov et al.’s Negative- Sampling Word-Embedding Method”. Arxiv. https://arxiv.org/abs/1402.3722

Grover, Aditya, y Jure Leskovec. 2016. “Node2vec: Scalable Feature Learning for Networks”. En Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 855-64. Association for Computing Machinery. https://doi.org/10.1145/2939672.2939754

Hambarde, Kailash A., y Hugo Proença. 2023. “Information Retrieval: Recent Advances and Beyond”. IEEE Access 11: 76581-604. https://doi.org/10.1109/ACCESS.2023.3295776

Hamilton, William L. 2020. Graph Representation Learning. Springer. Heptalytics. 2025. “Graph Neural Networks: An Efficient Energy Solution for Structured Data Analysis”. Heptalytics. https://www.heptalytics.ai/graph-neural-networks-an-efficient-energy-solution-for-structured-data-analysis

Huang, Xiao, Qingquan Song, Yuening Li y Xia Hu. 2019. “Graph Recurrent Networks with Attributed Random Walks”. En Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 732-40. Association for Computing Machinery. https://doi.org/10.1145/3292500.3330941

Hwang, Sukjun, Brandon Wang y Albert Gu. 2025. “Dynamic Chunking for End-to- End Hierarchical Sequence Modeling”. Arxiv. https://arxiv.org/abs/2507.07955

Kamphuis, Chris. 2020. “Graph Databases for Information Retrieval”. En Advances in Information Retrieval / 42nd European Conference on IR Research, ECIR 2020, editado por Joemon M. Jose, Emine Yilmaz, João Magalhães, Pablo Castells, Nicola Ferro, Mário J. Silva y Flávio Martins, 608-12. Springer. https://doi.org/10.1007/978-3-030-45442-5_79

Keramatfar, Abdalsamad, Mohadeseh Rafiee y Hossein Amirkhani. 2022. “Graph Neural Networks: A Bibliometrics Overview”. Machine Learning with Applications 10, e100401. https://doi.org/10.1016/j.mlwa.2022.100401

Kipf, Thomas N., y Max Welling. 2017. “Semi-supervised Classification with Graph Convolutional Networks”. Arxiv. https://arxiv.org/abs/1609.02907

Kostikova, Aida, Zhipin Wang, Deidamea Bajri, Ole Pütz, Benjamin Paaßen y Steffen Eger. 2025. “LLLMs: A Data-Driven Survey of Evolving Research on Limitations of Large Language Models”. Arxiv. https://arxiv.org/abs/2505.19240

Lai, Siwei, Liheng Xu, Kang Liu y Jun Zhao. 2015. “Recurrent Convolutional Neural Networks for Text Classification. Proceedings of the AAAI Conference on Artificial Intelligence 29 (1): 2267-73. https://doi.org/10.1609/aaai.v29i1.9513

Leskovec, Jure. 2023. “Databases as Graphs: Predictive Queries for Declarative Machine Learning”. En Proceedings of the 42nd ACM SIGMOD-SIGACT-SIGAI Symposium on Principles of Database Systems, 1. Association for Computing Machinery. https://doi.org/10.1145/3584372.3589939

Mavromatis, Costas, y George Karypis. 2024. “GNN-RAG: Graph Neural Retrieval for Large Language Model Reasoning”. Arxiv. https://arxiv.org/abs/2405.20139

Metzler, Donald, Yi Tay, Dara Bahri y Marc Najork. 2021. “Rethinking Search: Making Domain Experts out of Dilettantes”. ACM SIGIR Forum 55 (1): 1-27. https://doi.org/10.1145/3476415.3476428

Montani, Ines, Matthew Honnibal, Adriane Boyd, Sofie Van Landeghem y Henning Peters. 2020. Spacy: Industrial-Strength Natural Language Processing in Python [software]. Zenodo. https://doi.org/10.5281/zenodo.1212303

Peng, Ciyuan, Feng Xia, Mehdi Naseriparsa y Francesco Osborne. 2023. “Knowledge Graphs: Opportunities and Challenges”. Artificial Intelligence Review 56 (11): 13071-102. https://doi.org/10.1007/s10462-023-10465-9

Perozzi, Bryan, Rami Al-Rfou y Steven Skiena. 2014. “DeepWalk: Online Learning of Social Representations”. En Proceedings of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 701-10. Association for Computing Machinery. https://doi.org/10.1145/2623330.2623732

Polo-Bautista, Luis Roberto, Sandra Dinora Orantes-Jiménez, Francisco Carrillo-Brenes y Luis M. Vilches-Blázquez. 2025. “Semi-automatic Construction of Knowledge Graphs on Natural Disasters in Mexico Using Large Language Models”. En Geographical Information Systems / 5th Latin American Conference, GIS-LATAM 2024, editado por Miguel Félix Mata-Rivera, Roberto Zagal-Flores, Daniela Elisabeth Ballari y José Antonio León-Borges, 148-67. Springer. https://doi.org/10.1007/978-3-031-80017-7_10

Qiang, Yao, Subhrangshu Nandi, Ninareh Mehrabi, Greg Ver Steeg, Anoop Kumar, Anna Rumshisky y Aram Galstyan. 2024. “Prompt Perturbation Consistency Learning for Robust Language Models”. En Findings of the Association for Computational Linguistic: EACL 2024, editado por Yvette Graham y Matthew Purver, 1357-70. Association for Computational Linguistics. https://aclanthology.org/2024.findings-eacl.91

Ren, Hongyu, Mikhail Galkin, Michael Cochez, Zhaocheng Zhu y Jure Leskovec. 2023. “Neural Graph Reasoning: Complex Logical Query Answering Meets Graph Databases”. Arxiv. https://arxiv.org/abs/2303.14617

Tang, Jian, Meng Qu, Mingzhe Wang, Ming Zhang, Jun Yan y Qiaozhu Mei. 2015. “LINE:Large-Scale Information Network Embedding”. En Proceedings of the 24th International Conference on World Wide Web, 1067-77. International World Wide Web Conferences Steering Committee. https://doi.org/10.1145/2736277.2741093

Tao, Yan, Olga Viberg, Ryan S. Baker y René F. Kizilcec. 2024. “Cultural Bias and Cultural Alignment of Large Language Models”. PNAS Nexus 3 (9), pgae346. https://doi.org/10.1093/pnasnexus/pgae346

Vashishth, Shikhar, Soumya Sanyal, Vikram Nitin y Partha Talukdar. 2020. “Composition- Based Multi-relational Graph Convolutional Networks”. Arxiv. https://arxiv.org/abs/1911.03082

Vaswani, Ashish, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser e Illia Polosukhin. 2023. “Attention Is All You Need”. Arxiv. https://arxiv.org/abs/1706.03762

Veličković, Petar, Guillem Cucurull, Arantxa Casanova, Adriana Romero, Pietro Liò y Yoshua Bengio. 2018. “Graph Attention Networks”. Arxiv. https://arxiv.org/abs/1710.10903

Wang, Guan, Jin Li, Yuhao Sun, Xing Chen, Changling Liu, Yue Wu, Meng Lu, Sen Song y Yasin Abbasi Yadkori. 2025. “Hierarchical Reasoning Model”. Arxiv. https://arxiv.org/abs/2506.21734

Yaxue, Qin. 2020. “Convolutional Neural Networks for Literature Retrieval”. En Proceedings of the 2020 International Conference on Computer Vision, Image and Deep Learning (CVIDL), 393-97. Institute of Electrical and Electronics Engineers. https://doi.org/10.1109/CVIDL51233.2020.00-64

Zhou, Jie, Ganqu Cui, Shengding Hu, Zhengyan Zhang, Cheng Yang, Zhiyuan Liu, Lifeng Wang, Changcheng Li y Maosong Sun. 2020. “Graph Neural Networks: A Review of Methods and Applications”. AI Open 1: 57-81. https://doi.org/10.1016/j.aiopen.2021.01.001

Zhu, Yutao, Huaying Yuan, Shuting Wang, Jiongnan Liu, Wenhan Liu, Chenlong Deng, Haonan Chen, Zheng Liu, Zhicheng Dou y Ji-Rong Wen. 2024. “Large Language Models for Information Retrieval: A Survey”. Arxiv. https://arxiv.org/abs/2308.07107

Los autores:

  • Deben remitir a Investigación Bibliotecológica: archivonomía, bibliotecología e información la Carta de autorización para la publicación de artículos. 
  • pueden usar su obra para compartir con la comunidad científica en los ámbitos siguientes:
    • Apoyo a la docencia.
    • Realizar conferencias.
    • Autoarchivo en repositorios académicos.
    • Difundir en redes académicas.
    • Difundir en blogs y sitios personales del autor.

Ello será posible siempre y cuando se respeten las condiciones de uso de los contenidos de la revista, según la licencia Creative Commons:Atribución – No comercial – Sin Derivar 4.0.

Política de autoarchivo

En el caso de la publicación de la obra como autoarchivo, los autores deben cumplir con los aspectos siguientes:

a) Reconocer el derecho de autor a la RIB.

b) Establecer un enlace con la versión original de la contribución a la página de la revista donde se encuentre el artículo.

c) Difundir la versión definitiva publicada en la revista.

Licencia de los contenidos

La revista Investigación Bibliotecológica: archivonomía, bibliotecología e información permite el acceso y uso de sus contenidos según la licencia Creative Commons: Atribución – No comercial – Sin Derivar 4.0.

Licencia de Creative Commons

Ello implica que los contenidos sólo pueden ser leídos y compartidos siempre que se reconozca y se cite la autoría de la obra. No se puede usar la obra para fines comerciales ni modificarla.

Deslinde de responsabilidades

La RIB no se hace responsable en caso de que el autor haya incurrido en fraude o plagio científico, tampoco de los criterios reflejados por los autores. De igual forma, no es responsable por los servicios ofrecidos por terceros a partir de los enlaces electrónicos disponibles en los artículos de los autores.

En apoyo a ello, la RIB pone a disposición las responsabilidades que el autor debe cumplir en el proceso de publicación en la revista Investigación Bibliotecológica: archivonomía, bibliotecología e información en el enlace siguiente: Responsabilidades del autor.

En caso de migrar los contenidos del sitio oficial de la RIB, con implicaciones de cambio de IP o dominio, el director o editor de la revista informará a los autores sobre ello.

Descargas

Los datos de descargas todavía no están disponibles.