Skip to content

Latest commit

 

History

History
73 lines (46 loc) · 3.43 KB

README.md

File metadata and controls

73 lines (46 loc) · 3.43 KB

Estado: En desarrollo

Autoría de documentos

Trabajo Fin de Grado sobre el estudio de la Identificación de la Autoría de Documentos (Authorship). Haciendo uso de Text Mining, modelos de Machine Learning y Deep Learning. El problema Authorship es un problema de Aprendizaje Automático de clasificación multietiqueta, donde la característica más importante o única se presenta en forma de texto libre.

Documentación

La documentación extensa del proyecto se encuentra en el trabajo presentado a la Universidad de Granada sobre la cual se realizo la defensa obteniendo una calificación de 9,8.

La documentación hace referencia a numerosos papers relacionados con el problema Authorship. Algunos de los más relevantes se encuentran alojados en el directorio papers.

Uso

El paquete provee de una extensión de la librería sklearn dedicada al Procesamiento del Lenguaje Natural.

Requerimientos

Versión del lenguaje de programación:

  • Python 3.6

Librerías de python:

  1. sklearn
  2. nlkt
  3. pandas
  4. dill
  5. tensorflow
  6. multiplocess
  7. googletrans

Instalación

La instalación se puede realizar mediante el fichero requirements.txt:

python -m pip -r requirements.txt

Conjunto de datos

Se han testeado los modelos sobre el conjunto de datos de iniciatiavas del congreso 2008.

Dataset

El conjunto de datos se encuentra nativamente en formato XML. Tras eliminar los datos superfluos del mismo, la etiqueta y los documentos se han pasado a formato CSV. Siguiendo esta estructura:

Etiqueta Texto
Persona 1 Parrafos concatenados 1
Persona 2 Parrafos concatenados 2
Persona 1 Parrafos concatenados 3

Organización del proyecto

El paquete Authorship engloba el conjunto de herramientas relacionadas con NLP que se han aplicado expresadas por el siguiente esquema:

  1. Preprocesamiento
  2. Selección de características
  3. Extracción de características
  4. Redes neuronales

Un fichero de funciones auxiliares para la lectura de datos y limpieza del dataset.

Puesto que la motivación del proyecto es estudiar la influencia de las distintas herramientas o transformaciones en tareas de clasificación los modelos finales se encuentra implementados en la sección de testing:

Referencias de metodología

La metodología aplicada a lo largo del proyecto para la presentación de resultados ha seguido los estándares de división entre entrenamiento y test así como la aplicación de la técnica de validación cruzada.

Por otro lado, la guía que se ha seguido ha sido la aportada por Google.