<?xml version="1.0" encoding="utf-8"?>
<!DOCTYPE article
  PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.1 20151215//EN" "https://jats.nlm.nih.gov/publishing/1.1/JATS-journalpublishing1.dtd">
<article article-type="research-article" dtd-version="1.1" specific-use="sps-1.9" xml:lang="es"
    xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink">
    <front>
        <journal-meta>
            <journal-id journal-id-type="publisher-id">redie</journal-id>
            <journal-title-group>
                <journal-title>Revista electrónica de investigación educativa</journal-title>
                <abbrev-journal-title abbrev-type="publisher">REDIE</abbrev-journal-title>
            </journal-title-group>
            <issn pub-type="epub">1607-4041</issn>
            <publisher>
                <publisher-name>Universidad Autónoma de Baja California, Instituto de Investigación
                    y Desarrollo Educativo</publisher-name>
            </publisher>
        </journal-meta>
        <article-meta>
            <article-id pub-id-type="doi">10.24320/redie.2021.23.e29.3918</article-id>
            <article-id pub-id-type="other">00029</article-id>
            <article-categories>
                <subj-group subj-group-type="heading">
                    <subject>Artículos</subject>
                </subj-group>
            </article-categories>
            <title-group>
                <article-title>Patrones que identifican a estudiantes universitarios desertores
                    aplicando minería de datos educativa</article-title>
                <trans-title-group xml:lang="en">
                    <trans-title>Patterns to Identify Dropout University Students with Educational
                        Data Mining</trans-title>
                </trans-title-group>
            </title-group>
            <contrib-group>
                <contrib contrib-type="author">
                    <contrib-id contrib-id-type="orcid">0000-0002-3700-7287</contrib-id>
                    <name>
                        <surname>Urbina-Nájera</surname>
                        <given-names>Argelia Berenice</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff1"><sup>1</sup></xref>
                </contrib>
                <contrib contrib-type="author">
                    <contrib-id contrib-id-type="orcid">0000-0002-0787-7417</contrib-id>
                    <name>
                        <surname>Téllez-Velázquez</surname>
                        <given-names>Arturo</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff2"><sup>2</sup></xref>
                </contrib>
                <contrib contrib-type="author">
                    <contrib-id contrib-id-type="orcid">0000-0002-0677-3931</contrib-id>
                    <name>
                        <surname>Cruz Barbosa</surname>
                        <given-names>Raúl</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff3"><sup>3</sup></xref>
                </contrib>
            </contrib-group>
            <aff id="aff1">
                <label>1</label>
                <institution content-type="original">Universidad Popular Autónoma del Estado de
                    Puebla</institution>
                <institution content-type="normalized">Universidad Popular Autónoma del Estado de
                    Puebla</institution>
                <institution content-type="orgname">Universidad Popular Autónoma del Estado de
                    Puebla</institution>
                <country country="MX">Mexico</country>
            </aff>
            <aff id="aff2">
                <label>2</label>
                <institution content-type="original">Universidad Tecnológica de Tlaxcala </institution>
                <institution content-type="normalized">Universidad Tecnológica de
                    Tlaxcala</institution>
                <institution content-type="orgname">Universidad Tecnológica de
                    Tlaxcala</institution>
                <country country="MX">Mexico</country>
            </aff>
            <aff id="aff3">
                <label>3</label>
                <institution content-type="original">Universidad Tecnológica de la
                    Mixteca</institution>
                <institution content-type="normalized">Universidad Tecnológica de la
                    Mixteca</institution>
                <institution content-type="orgname">Universidad Tecnológica de la
                    Mixteca</institution>
                <country country="MX">Mexico</country>
            </aff>
            <pub-date date-type="pub" publication-format="electronic">
                <day>20</day>
                <month>12</month>
                <year>2021</year>
            </pub-date>
            <pub-date date-type="collection" publication-format="electronic">
                <year>2021</year>
            </pub-date>
            <volume>23</volume>
            <elocation-id>e29</elocation-id>
            <history>
                <date date-type="received">
                    <day>02</day>
                    <month>03</month>
                    <year>2020</year>
                </date>
                <date date-type="accepted">
                    <day>04</day>
                    <month>12</month>
                    <year>2020</year>
                </date>
            </history>
            <permissions>
                <license license-type="open-access"
                    xlink:href="https://creativecommons.org/licenses/by-nc/4.0/" xml:lang="es">
                    <license-p>Este es un artículo publicado en acceso abierto bajo una licencia
                        Creative Commons</license-p>
                </license>
            </permissions>
            <abstract>
                <title>Resumen</title>
                <p>En este trabajo se presenta un análisis de las características más relevantes de
                    un potencial desertor universitario, mediante la aplicación de algoritmos de
                    minería de datos educativa. Se utilizó un conjunto de datos de 10 635
                    instancias, adquiridas en el período 2014-2019, de 53 programas de licenciatura
                    de una institución privada del estado de Puebla (México). Los resultados
                    muestran que el modelo obtenido por los árboles de decisión ofrece mayor
                    desempeño que otros algoritmos, así como una fácil interpretación de éste
                    mediante reglas de decisión. Además, el rendimiento del modelo es mejor que
                    otros modelos relacionados en la literatura aplicados al mismo problema. Los
                    métodos de selección de características permitieron encontrar los atributos más
                    importantes que identifican a un potencial desertor, tales como: el período, el
                    último semestre cursado, créditos cursados, asistencia, materias reprobadas y
                    programa. Utilizando los atributos y reglas de decisión encontradas se podrían
                    crear mecanismos que favorezcan la prevención de la deserción.</p>
            </abstract>
            <trans-abstract xml:lang="en">
                <title>Abstract</title>
                <p>This paper applies educational data mining algorithms to present an analysis of
                    the most relevant characteristics of potential dropout students. The study used
                    a dataset of 10,635 instances, acquired between 2014 and 2019 from 53 bachelor’s
                    degree programs at a private university in the state of Puebla (Mexico). The
                    results show that the model obtained from the decision trees performs better
                    than other algorithms and allows for easy interpretation through decision rules.
                    Furthermore, the model performs better than other related models in the
                    literature that have been applied to the same problem. The methods used to
                    select characteristics yielded the most important attributes to identify
                    potential dropouts, such as the period, last semester completed, credits
                    completed, attendance, courses failed, and program. These attributes and
                    decision rules can be used to create mechanisms that help prevent dropout. </p>
            </trans-abstract>
            <kwd-group xml:lang="es">
                <title><italic>Palabras clave:</italic></title>
                <kwd>deserción escolar</kwd>
                <kwd>características de la deserción</kwd>
                <kwd>toma de decisiones</kwd>
            </kwd-group>
            <kwd-group xml:lang="en">
                <title><italic>Keywords:</italic></title>
                <kwd>dropping out</kwd>
                <kwd>dropouts characteristics</kwd>
                <kwd>decision making</kwd>
            </kwd-group>
            <counts>
                <fig-count count="3"/>
                <table-count count="8"/>
                <equation-count count="0"/>
                <ref-count count="35"/>
                
            </counts>
        </article-meta>
    </front>
    <body>
        <sec sec-type="intro">
            <title>I. Introducción</title>
            <p>La deserción escolar universitaria es una situación que ha tomado especial atención
                desde hace más de una década tanto en países desarrollados como en vías de
                desarrollo. De acuerdo con la Real Academia Española de la Lengua (2013) la
                deserción escolar es la acción de separarse o abandonar obligaciones en cuanto a
                compromisos escolares. Mientras que la Secretaría de Educación Pública <xref
                    ref-type="bibr" rid="B29">[SEP], (2019a)</xref> lo expresa como el número o
                porcentaje de estudiantes que abandonan las actividades escolares antes de terminar
                algún grado o nivel educativo, originada por diversos factores intrínsecos
                (personales) y extrínsecos (familiares, personales, sociales, económicos). Para
                efectos de este estudio se utiliza el término apegado a la definición de la SEP.</p>
            <p>Si bien la deserción escolar no obedece a una sola causa, sí hay una razón que
                origina la decisión de desertar; <xref ref-type="bibr" rid="B5">Aulck et al.
                    (2017)</xref>; <xref ref-type="bibr" rid="B7">Carvajal y Trejos (2016)</xref>;
                    <xref ref-type="bibr" rid="B17">López y Beltrán (2017)</xref>; <xref
                    ref-type="bibr" rid="B18">Márquez-Vera et al. (2016)</xref>; <xref
                    ref-type="bibr" rid="B21">Muñoz et al. (2018)</xref>; <xref ref-type="bibr"
                    rid="B24">Ramírez et al. (2016)</xref> y <xref ref-type="bibr" rid="B30"
                    >Sivakumar et al. (2016)</xref> afirman que las causas de este fenómeno se debe
                a factores religiosos, académicos, económicos, personales/familiares, sociales,
                institucionales, desempeño obtenido, si la madre no tiene estudios de posgrado, si
                el estudiante trabaja, si está presente alguna adicción (cigarro o alcohol), la
                distancia (hogar-escuela), el lugar de residencia, tipo de familia, satisfacción del
                curso, experiencia estresante familiar, infraestructura de la universidad,
                participación en actividad extracurricular, entorno del campus, cambio de objetivos,
                el bajo nivel de los estudiantes al ingresar a la institución, nulo interés
                vocacional, actitudes del estudiante, expectativas, la incorrecta elección de la
                carrera, o bien, el curso y tipo de período, entre otros.</p>
            <p>De acuerdo con el reporte anual sobre las principales cifras del sistema educativo
                nacional, en el nivel superior los números estimados sobre deserción escolar en el
                ciclo escolar 2014-2015 alcanzaron un 12.6%, en el ciclo 2015-2016 un 12.1%, en el
                ciclo 2016-2017 un 7.2%; en el ciclo 2017-2018 aumentó a 8.4% y finalmente en el
                ciclo 2018-2019 se tuvo un ligero descenso al obtener un 8.3% sólo en la modalidad
                escolarizada (SEP, 2019b). Estas cifras indican que México tiene la proporción más
                baja de población con educación superior de todos los países de la <xref
                    ref-type="bibr" rid="B22">OCDE (2019)</xref>.</p>
            <p>Para estudiar el fenómeno de la deserción escolar es pertinente identificar todos
                aquellos factores que intervienen en la decisión de abandonar los estudios
                universitarios. A partir de estudios recientes se ha determinado que las tecnologías
                que ayudan a analizar situaciones en este contexto es la minería de datos educativa
                (MDE o <italic>Educational Data Mining</italic>) y el aprendizaje computacional
                    (<italic>machine learning</italic>) que han contribuido a la manera en que las
                instituciones de educación superior dan seguimiento y predicen el desempeño de los
                estudiantes (<xref ref-type="bibr" rid="B9">Clow, 2013</xref>). </p>
            <p>La minería de datos educativa se define como un área interdisciplinaria emergente que
                trata con el desarrollo de métodos para explorar datos que se originan en el
                contexto educativo (<xref ref-type="bibr" rid="B27">Romero y Ventura, 2010</xref>).
                De esta forma, la MDE utiliza al aprendizaje computacional para analizar los datos
                relacionados con problemas en el contexto educativo. Dicho aprendizaje se define
                como una rama de la inteligencia artificial que permite programar a las computadoras
                para optimizar un criterio de rendimiento, utilizando datos de ejemplo o experiencia
                    (<xref ref-type="bibr" rid="B4">Alpaydin, 2010</xref>). En otras palabras, esta
                área se dedica al estudio de los agentes o programas que aprenden o evolucionan
                basados en su experiencia para realizar una tarea determinada cada vez mejor (<xref
                    ref-type="bibr" rid="B19">Mitchell, 2000</xref>). </p>
            <p>Algunos métodos (algoritmos) de aprendizaje computacional se han aplicado para
                resolver problemas en este contexto, por ejemplo: se han utilizado árboles de
                decisión para predecir el desempeño de los estudiantes (<xref ref-type="bibr"
                    rid="B1">Agaoglu, 2016</xref>; <xref ref-type="bibr" rid="B3">Al-Barrak y
                    Al-Razgan, 2016</xref>; <xref ref-type="bibr" rid="B8">Chiheb et al.,
                    2017</xref>; <xref ref-type="bibr" rid="B33">Yamao et al., 2018</xref>), medir
                el éxito académico (<xref ref-type="bibr" rid="B20">Morales y Parraga-Alava,
                    2018</xref>), captación de matrícula en Instituciones de Educación Superior
                (IES) particulares (<xref ref-type="bibr" rid="B11">Estrada et al., 2016</xref>) e
                identificación de perfiles de comportamiento (<xref ref-type="bibr" rid="B13"
                    >Guevara et al., 2019</xref>). </p>
            <p>Para explicar las causas de la deserción escolar también se han aplicado algoritmos
                como Näive Bayes (<xref ref-type="bibr" rid="B18">Márquez-Vera et al., 2016</xref>),
                redes neuronales (<xref ref-type="bibr" rid="B34">Yukselturk et al., 2014</xref>),
                vecinos más cercanos (<xref ref-type="bibr" rid="B5">Aulck et al., 2017</xref>),
                regresión lineal o logística, máquinas de soporte vectorial (<xref ref-type="bibr"
                    rid="B1">Agaoglu, 2016</xref>; <xref ref-type="bibr" rid="B3">Al-Barrak y
                    Al-Razgan, 2016</xref>; <xref ref-type="bibr" rid="B8">Chihebet al.,
                2017</xref>; <xref ref-type="bibr" rid="B33">Yamao et al., 2018</xref>). Finalmente,
                el algoritmo selección de atributos ha sido empleado para identificar a los mejores
                atributos que pueden contribuir a una mejor clasificación (<xref ref-type="bibr"
                    rid="B18">Márquez-Vera et al., 2016</xref>).</p>
            <p>Este estudio tiene como objetivo presentar un análisis cuantitativo de los atributos
                que identifican a un estudiante desertor por medio de los algoritmos de minería de
                datos educativa. </p>
            <sec>
                <title>1.1 Algoritmos de clasificación supervisada</title>
                <p>La clasificación de instancias es aquella clase distinguida a partir de un
                    conjunto de atributos. El aprendizaje computacional es utilizado para
                    identificar patrones ocultos en grandes volúmenes de datos que pueden obtenerse
                    a través del historial del estudiante, desde su ingreso a la universidad hasta
                    obtener un título (<xref ref-type="bibr" rid="B7">Carvajal y Trejos,
                    2016</xref>; <xref ref-type="bibr" rid="B32">Witten et al., 2016</xref>). </p>
                <p>Uno de los algoritmos aplicados es Bayes ingenuo (<xref ref-type="bibr" rid="B31"
                        >Theodoridis y Koutroumbas, 2008</xref>), el cual utiliza la regla de Bayes
                    para predecir la pertenencia de una nueva muestra con alguna clase a partir de
                    un conjunto de datos de entrenamiento, asumiendo que existe un modelo de
                    probabilidad subyacente en los datos. Dicho modelo también supone que existe
                    independencia entre los atributos. Otro algoritmo es el de árboles de decisión:
                    “un modelo predictivo con el que se pueden representar clasificaciones y modelos
                    de regresión; empleado para identificar la estrategia más probable para alcanzar
                    el objetivo” (<xref ref-type="bibr" rid="B26">Rokach y Maimon, 2014, p.
                    5</xref>), con los cuales es posible construir un conjunto de reglas jerárquicas
                    que están relacionadas directamente con los datos. Existen diversas variantes de
                    árboles de decisión en la literatura; por ejemplo, el algoritmo C4.5 genera un
                    árbol de decisión a partir de los datos mediante particiones realizadas
                    recursivamente, según la estrategia de expansión primero en profundidad
                        (<italic>depth-first</italic>) (<xref ref-type="bibr" rid="B19">Mitchell,
                        2000</xref>). Mientras que el algoritmo REPTree, construye un árbol de
                    decisión usando variación de información y lo simplifica usando una poda de
                    error reducido (con ajuste posterior) (<xref ref-type="bibr" rid="B32">Witten et
                        al., 2016</xref>).</p>
                <p>Por otro lado, el algoritmo bosques aleatorios es una variante de los árboles de
                    decisión, también conocido como un ensamble de árboles (<xref ref-type="bibr"
                        rid="B35">Zhou, 2012</xref>), el cual genera una cantidad específica de
                    árboles de decisión independientes, cuyos resultados son promediados. Dicha
                    característica favorece en la generalización del modelo. Finalmente, las
                    máquinas de soporte vectorial son un modelo que separa los datos de entrada
                    transformándolos hacia un espacio de características de alta dimensión, en donde
                    se construye un hiperplano de separación a razón de la distancia entre los
                    vectores de soporte formados. El hiperplano de separación maximiza la distancia
                    entre los vectores de soporte de las clases a separar.</p>
                <p>Asimismo, la selección de atributos representa una opción que ayuda a mejorar el
                    desempeño, tanto en la exactitud de clasificación como en la reducción de la
                    complejidad del modelo. También, permite entender qué variables son relevantes o
                    redundantes para el proceso de clasificación. Por esta razón, en este estudio se
                    utilizaron tres métodos de selección de atributos para reducir el número de
                    atributos en el proceso de clasificación y entender cuáles son las variables más
                    importantes que describen a un estudiante desertor, a saber: </p>
                <p>
                    <list list-type="bullet">
                        <list-item>
                            <p>Relief, que asigna una calificación a cada atributo mediante la
                                técnica del k-ésimo vecino más cercano (<xref ref-type="bibr"
                                    rid="B15">Kira y Rendell, 1992</xref>; <xref ref-type="bibr"
                                    rid="B16">Kononenko et al., 1997</xref>). Relief es considerado
                                como un método de <italic>ranking</italic>, porque entrega al
                                usuario el orden de las variables con respecto a su importancia.
                            </p>
                        </list-item>
                        <list-item>
                            <p>La búsqueda secuencial hacia adelante, que representa un método
                                empaquetador (<italic>wrapper</italic>), agrega un atributo a un
                                subconjunto de atributos en cada iteración, de manera que se
                                maximiza gradualmente el desempeño de algún clasificador hasta que
                                se alcance la dimensionalidad requerida (<xref ref-type="bibr"
                                    rid="B10">Devijver y Kittler, 1982</xref>). Y la búsqueda
                                secuencial hacia atrás también se trata de un método empaquetador,
                                en donde la formación de subconjuntos de atributos se realiza
                                empezando con todas las variables y en posteriores iteraciones se va
                                eliminando de cada subconjunto una variable a la vez. </p>
                        </list-item>
                    </list>
                </p>
                <p>En este sentido, es importante evaluar el desempeño de cada uno de los algoritmos
                    utilizados. Dentro de las técnicas para estimar el desempeño se encuentra la
                    matriz de confusión también llamada matriz de error o tabla de contingencia, que
                    es una técnica de visualización para obtener información sobre las
                    clasificaciones reales y predicciones realizadas por un sistema de clasificación
                        (<xref ref-type="bibr" rid="B6">Bird et al., 2009</xref>), en donde los
                    casos bien clasificados se encuentran en la diagonal de la matriz, mientras que
                    los elementos fuera de ella representan a las instancias mal clasificadas (<xref
                        ref-type="bibr" rid="B32">Witten et al., 2016</xref>). </p>
                <p>Incluso, la mayoría de las medidas de desempeño del clasificador se pueden
                    enunciar a partir de dicha matriz; algunas de estas medidas frecuentemente
                    usadas son: exactitud, precisión, recuento, medida F, entre otras. En este
                    estudio, sólo se toman en cuenta las medidas de exactitud y la tasa de error
                    balanceado (<xref ref-type="bibr" rid="B32">Witten et al., 2016</xref>), puesto
                    que el conjunto de datos utilizado se encuentra desbalanceado, con respecto a
                    sus dos clases, es decir, hay más elementos de una clase (no-desertor) que de la
                    otra (desertor). </p>
                <p>La exactitud representa la proporción de las instancias que fueron correctamente
                    clasificadas con respecto al total de instancias que forman al conjunto de datos
                    utilizado y la tasa de error balanceado (TEB) representa el porcentaje promedio
                    de error por clase del clasificador, donde las clases están desbalanceadas, es
                    decir, cuando existe un mayor número de instancias de una clase con respecto a
                    la otra clase (<xref ref-type="table" rid="t1">Tabla 1</xref>).</p>
                <p>
                    <table-wrap id="t1">
                        <label>Tabla 1</label>
                        <caption>
                            <title>Algoritmos de aprendizaje automático utilizados en la predicción
                                de la deserción escolar</title>
                        </caption>
                        <table>
                            <colgroup>
                                <col/>
                                <col/>
                                <col/>
                                <col/>
                            </colgroup>
                            <thead>
                                <tr>
                                    <th align="center"><bold>Clasificador</bold></th>
                                    <th align="center"><bold>Autores</bold></th>
                                    <th align="center"><bold>Nivel de estudios</bold></th>
                                    <th align="center"><bold>Tamaño del conjuntode datos</bold></th>
                                </tr>
                            </thead>
                            <tbody>
                                <tr>
                                    <td align="left">
                                        <p>
                                            <list list-type="simple">
                                                <list-item>
                                                <p>- Regresión (logística/lineal)</p>
                                                </list-item>
                                                <list-item>
                                                <p>- Selección de atributos</p>
                                                </list-item>
                                            </list>
                                        </p>
                                    </td>
                                    <td align="left">(<xref ref-type="bibr" rid="B2">Albán y
                                            Mauricio, 2019</xref>)</td>
                                    <td align="justify">Universitario</td>
                                    <td align="justify">
                                        <p>
                                            <list list-type="simple">
                                                <list-item>
                                                <p>3 777 registros</p>
                                                </list-item>
                                                <list-item>
                                                <p>30 variables</p>
                                                </list-item>
                                                <list-item>
                                                <p>Recolectados en 2017</p>
                                                </list-item>
                                            </list>
                                        </p>
                                    </td>
                                </tr>
                                <tr>
                                    <td align="left">
                                        <p>
                                            <list list-type="simple">
                                                <list-item>
                                                <p>- Árboles de decisión</p>
                                                </list-item>
                                                <list-item>
                                                <p>- k-NN (k-nearest neighbors)</p>
                                                </list-item>
                                                <list-item>
                                                <p>- Regresión (logística/lineal)</p>
                                                </list-item>
                                            </list>
                                        </p>
                                    </td>
                                    <td align="left">(<xref ref-type="bibr" rid="B5">Aulck et al.,
                                            2017</xref>)</td>
                                    <td align="justify">Universitario</td>
                                    <td align="justify">
                                        <p>
                                            <list list-type="simple">
                                                <list-item>
                                                <p>32 538 registros</p>
                                                </list-item>
                                                <list-item>
                                                <p>16 variables</p>
                                                </list-item>
                                                <list-item>
                                                <p>Recolectados en el verano de 2013</p>
                                                </list-item>
                                            </list>
                                        </p>
                                    </td>
                                </tr>
                                <tr>
                                    <td align="left">
                                        <p>
                                            <list list-type="simple">
                                                <list-item>
                                                <p>- Máquinas de Soporte Vectorial</p>
                                                </list-item>
                                                <list-item>
                                                <p>- Árboles de decisión</p>
                                                </list-item>
                                                <list-item>
                                                <p>- Näive Bayes</p>
                                                </list-item>
                                                <list-item>
                                                <p>- IBk (Instance-based lazy learning)</p>
                                                </list-item>
                                            </list>
                                        </p>
                                    </td>
                                    <td align="left">(<xref ref-type="bibr" rid="B18">Márquez-Vera
                                            et al., 2016</xref>)</td>
                                    <td align="justify">Preparatoria</td>
                                    <td align="left">
                                        <p>
                                            <list list-type="simple">
                                                <list-item>
                                                <p>419 registros</p>
                                                </list-item>
                                                <list-item>
                                                <p>60 variables</p>
                                                </list-item>
                                                <list-item>
                                                <p>recolectados de agosto a diciembre de 2012</p>
                                                </list-item>
                                            </list>
                                        </p>
                                    </td>
                                </tr>
                                <tr>
                                    <td align="left">
                                        <p>
                                            <list list-type="simple">
                                                <list-item>
                                                <p>- Näive Bayes</p>
                                                </list-item>
                                                <list-item>
                                                <p>- Árboles de decisión</p>
                                                </list-item>
                                                <list-item>
                                                <p>- Random forest</p>
                                                </list-item>
                                                <list-item>
                                                <p>- Ramdom Tree</p>
                                                </list-item>
                                                <list-item>
                                                <p>- Perceptron multicapa</p>
                                                </list-item>
                                            </list>
                                        </p>
                                    </td>
                                    <td align="left">(<xref ref-type="bibr" rid="B25">Rodríguez-Maya
                                            et al., 2017</xref>)</td>
                                    <td align="justify">Universitario</td>
                                    <td align="left">
                                        <p>
                                            <list list-type="simple">
                                                <list-item>
                                                <p>274 registros</p>
                                                </list-item>
                                                <list-item>
                                                <p>397 variables</p>
                                                </list-item>
                                                <list-item>
                                                <p>Obtenidos de las cohortes generacionales
                                                2010-2015 y 2011-2016</p>
                                                </list-item>
                                            </list>
                                        </p>
                                    </td>
                                </tr>
                                <tr>
                                    <td align="left"><p>
                                        <list list-type="simple">
                                            <list-item>
                                                <p>- Näive Bayes</p>
                                            </list-item>
                                            </list></p></td>
                                    <td align="left">(<xref ref-type="bibr" rid="B28">Sara et al.,
                                            2015</xref>)</td>
                                    <td align="justify">Preparatoria</td>
                                    <td align="left">
                                        <p>
                                            <list list-type="simple">
                                                <list-item>
                                                <p>72 598 registros</p>
                                                </list-item>
                                                <list-item>
                                                <p>17 variables</p>
                                                </list-item>
                                                <list-item>
                                                <p>Datos de estudiantes matriculados después de
                                                2009</p>
                                                </list-item>
                                            </list>
                                        </p>
                                    </td>
                                </tr>
                                <tr>
                                    <td align="left"><p>
                                        <list list-type="simple">
                                            <list-item>
                                                <p>- Árboles de decisión</p>
                                            </list-item>
                                        </list></p>
                                        </td>
                                    <td align="left">(<xref ref-type="bibr" rid="B30">Sivakumar et
                                            al., 2016</xref>)</td>
                                    <td align="justify">Universitario</td>
                                    <td align="left">
                                        <p>
                                            <list list-type="simple">
                                                <list-item>
                                                <p>240 registros</p>
                                                </list-item>
                                                <list-item>
                                                <p>32 variables</p>
                                                </list-item>
                                            </list>
                                        </p>
                                    </td>
                                </tr>
                                <tr>
                                    <td align="left">
                                        <p>
                                            <list list-type="simple">
                                                <list-item>
                                                <p>- Árboles de decisión</p>
                                                </list-item>
                                                <list-item>
                                                <p>- Regresión (logística/lineal)</p>
                                                </list-item>
                                                <list-item>
                                                <p>- Máquinas de Soporte Vectorial</p>
                                                </list-item>
                                            </list>
                                        </p>
                                    </td>
                                    <td align="left">(<xref ref-type="bibr" rid="B33">Yamao et al.,
                                            2018</xref>)</td>
                                    <td align="justify">Universitario</td>
                                    <td align="left">
                                        <p>
                                            <list list-type="simple">
                                                <list-item>
                                                <p>1 304 registros</p>
                                                </list-item>
                                                <list-item>
                                                <p>8 variables</p>
                                                </list-item>
                                                <list-item>
                                                <p>Recolectados durante 2010-2015</p>
                                                </list-item>
                                            </list>
                                        </p>
                                    </td>
                                </tr>
                            </tbody>
                        </table>
                    </table-wrap>
                </p>
            </sec>
            <sec>
                <title>1.2 Trabajos relacionados</title>
                <p>Como se observa en la <xref ref-type="table" rid="t1">Tabla 1</xref>, los métodos
                    frecuentemente usados en la predicción de algún evento son: árboles de decisión,
                    máquinas de soporte vectorial y regresión lineal. La mejor precisión al
                    clasificar aplicando árboles de decisión fue la obtenida por <xref
                        ref-type="bibr" rid="B33">Yamao et al. (2018)</xref> con un 82.87%; usando
                    Bayes ingenuo fue la obtenida por <xref ref-type="bibr" rid="B28">Sara et al.
                        (2015)</xref> con un 76%; aplicando k-NN fue de 64.60% reportado por <xref
                        ref-type="bibr" rid="B5">Aulck et al. (2017)</xref>, quienes también
                    aplicaron regresión lineal obteniendo una precisión de 66.59%; finalmente,
                    aplicando máquinas de soporte vectorial, <xref ref-type="bibr" rid="B18"
                        >Márquez-Vera et al. (2016)</xref> obtuvieron un 83.22%. Empero, la
                    aplicación de cualquier algoritmo tiene implicaciones respecto al desempeño del
                    mismo, pues el porcentaje de exactitud está en función de las características
                    del conjunto de datos utilizado. </p>
                <p>Es importante resaltar que en este estudio se emplea un conjunto de datos de
                    10,635 registros con 12 variables, recolectados entre los años 2014-2019, que en
                    comparación con los datos mostrados en la <xref ref-type="table" rid="t1">Tabla
                        1</xref> son actuales y superan de forma considerable el conjunto de datos
                    empleado en dichos estudios, aunque sólo se estudian 12 variables se tiene la
                    ventaja de analizar a dos cohortes generacionales de 53 programas de estudio, en
                    contraposición con los estudios presentados -que recolectaron datos de un solo
                    programa. </p>
            </sec>
        </sec>
        <sec sec-type="methods">
            <title>II. Método</title>
            <p>El presente trabajo proporciona un análisis cuantitativo del fenómeno de la deserción
                universitaria desde el punto de vista de la minería de datos educativa, con apoyo de
                la metodología mostrada en la <xref ref-type="fig" rid="f1">Figura 1</xref>, cuyos
                procesos se detallan a continuación. </p>
            <p>
                <fig id="f1">
                    <label>Figura 1</label>
                    <caption>
                        <title>Metodología para determinar los atributos más relevantes en la
                            deserción universitaria </title>
                    </caption>
                    <graphic xlink:href="1607-4041-redie-23-e29-gf1.png"/>
                </fig>
            </p>
            <p>Diseño de la investigación: Esta investigación tiene un enfoque cuantitativo y no
                experimental, de carácter exploratorio (<xref ref-type="bibr" rid="B14"
                    >Hernández-Sampieri y Mendoza, 2018</xref>; <xref ref-type="bibr" rid="B23"
                    >Rahi, 2017</xref>), ya que ninguna de las variables descritas en el conjunto de
                datos es manipulada, es decir, los atributos estudiados no se cambian de forma
                intencional sobre el efecto en la deserción escolar universitaria. Del mismo modo,
                el diseño es transeccional descriptivo (<xref ref-type="bibr" rid="B14"
                    >Hernández-Sampieri y Mendoza, 2018</xref>), al obtener los datos en un solo
                momento para indagar sobre la incidencia de las variables de estudio.</p>
            <p>Conjunto de datos. Se ha considerado un conjunto de datos con 10 635 instancias
                recolectadas durante el período comprendido entre el otoño del 2014 y la primavera
                del 2019, provenientes de una institución privada de educación superior del estado
                de Puebla (México), de 53 programas educativos agrupados en 7 áreas del
                conocimiento. Los 12 atributos son descritos detalladamente en la <xref
                    ref-type="table" rid="t2">Tabla 2</xref>. La base de datos está compuesta de
                información de estudiantes universitarios inscritos y desertores, de los cuales 5
                016 son hombres y 5 619 son mujeres entre 17 y 63 años de edad.</p>
            <p>
                <table-wrap id="t2">
                    <label>Tabla 2</label>
                    <caption>
                        <title>Descripción de los atributos utilizados en el análisis</title>
                    </caption>
                    <table>
                        <colgroup>
                            <col/>
                            <col/>
                            <col/>
                        </colgroup>
                        <thead>
                            <tr>
                                <th align="left"><bold>Atributo</bold></th>
                                <th align="center"><bold>Intervalo de valores</bold></th>
                                <th align="left"><bold>Posibles valores</bold></th>
                            </tr>
                        </thead>
                        <tbody>
                            <tr>
                                <td align="left">1. Período</td>
                                <td align="center">[2014, 2019]</td>
                                <td align="left">[otoño, verano, primavera]</td>
                            </tr>
                            <tr>
                                <td align="left">2. Área</td>
                                <td align="center">nominal</td>
                                <td align="left">
                                    <p>
                                        <list list-type="simple">
                                            <list-item>
                                                <p>AH = Artes y Humanidades</p>
                                            </list-item>
                                            <list-item>
                                                <p>BIO = Ciencias Biológicas</p>
                                            </list-item>
                                            <list-item>
                                                <p>CEA = Ciencias Económico-Administrativas</p>
                                            </list-item>
                                            <list-item>
                                                <p>CS = Ciencias Sociales</p>
                                            </list-item>
                                            <list-item>
                                                <p>ELC = Estudios de Lengua y Cultura</p>
                                            </list-item>
                                            <list-item>
                                                <p>ING = Ingeniería</p>
                                            </list-item>
                                            <list-item>
                                                <p>SAL = Ciencias de la Salud</p>
                                            </list-item>
                                        </list>
                                    </p>
                                </td>
                            </tr>
                            <tr>
                                <td align="left">3. Programa</td>
                                <td align="center">nominal</td>
                                <td align="left">53 carreras agrupadas en cada una de las siete
                                    áreas</td>
                            </tr>
                            <tr>
                                <td align="left">4. Género</td>
                                <td align="center">nominal</td>
                                <td align="left">Masculino y femenino</td>
                            </tr>
                            <tr>
                                <td align="left">5. Edad</td>
                                <td align="center">[17, 63]</td>
                                <td align="left">Intervalo de edades</td>
                            </tr>
                            <tr>
                                <td align="left">6. Estado de procedencia</td>
                                <td align="center">nominal</td>
                                <td align="left">Estados de procedencia de los estudiantes dentro de
                                    las 32 entidades federativas de la república mexicana</td>
                            </tr>
                            <tr>
                                <td align="left">7. Promedio actual</td>
                                <td align="center">[0, 10]</td>
                                <td align="left">Promedio de calificaciones.</td>
                            </tr>
                            <tr>
                                <td align="left">8. Créditos cursados </td>
                                <td align="center">[0, 1]</td>
                                <td align="left">Porcentaje de materias cursadas, con respecto a la
                                    totalidad de créditos de toda la carrera.</td>
                            </tr>
                            <tr>
                                <td align="left">9. Último semestre</td>
                                <td align="center">[0, 11]</td>
                                <td align="left">Último semestre cursado.</td>
                            </tr>
                            <tr>
                                <td align="left">10. Beca</td>
                                <td align="center">[0, 1]</td>
                                <td align="left">Sí o no.</td>
                            </tr>
                            <tr>
                                <td align="left">11. Porcentaje de asistencia</td>
                                <td align="center">[0, 1]</td>
                                <td align="left">Porcentaje de asistencia general de los
                                    estudiantes</td>
                            </tr>
                            <tr>
                                <td align="left">12. Porcentaje de materias reprobadas</td>
                                <td align="center">[0, 1]</td>
                                <td align="left">Porcentaje de materias reprobadas, con respecto al
                                    número de materias de la carrera.</td>
                            </tr>
                            <tr>
                                <td align="left">Estatus</td>
                                <td align="center">nominal</td>
                                <td align="left">Estado actual del estudiante. De manera general,
                                    solamente hay dos estados en esta clase: desertor y no desertor.
                                    El atributo no desertor contempla a los estudiantes inscritos,
                                    pasantes o titulados.</td>
                            </tr>
                        </tbody>
                    </table>
                </table-wrap>
            </p>
            <p>Del total de muestras, 3 233 pertenecen a la clase desertor, mientras el resto (7
                402) son de la clase no-desertor (<xref ref-type="table" rid="t3">Tabla
                3</xref>).</p>
            <p>
                <table-wrap id="t3">
                    <label>Tabla 3</label>
                    <caption>
                        <title>Distribución de clases en los conjuntos de datos de entrenamiento y
                            prueba</title>
                    </caption>
                    <table>
                        <colgroup>
                            <col/>
                            <col/>
                            <col/>
                            <col/>
                        </colgroup>
                        <thead>
                            <tr>
                                <th align="left"><bold>Conjunto de datos</bold></th>
                                <th align="center"><bold>Clase “desertor”</bold></th>
                                <th align="center"><bold>Clase “no-desertor”</bold></th>
                                <th align="center"><bold>Total</bold></th>
                            </tr>
                        </thead>
                        <tbody>
                            <tr>
                                <td align="left">Entrenamiento</td>
                                <td align="center">2 587</td>
                                <td align="center">5 922</td>
                                <td align="center">8 509</td>
                            </tr>
                            <tr>
                                <td align="left">Prueba</td>
                                <td align="center">646</td>
                                <td align="center">1480</td>
                                <td align="center">2 126</td>
                            </tr>
                        </tbody>
                    </table>
                </table-wrap>
            </p>
            <p>Descubrimiento de conocimiento: En esta fase se realizó la selección y limpieza de
                los datos, que consiste en quitar inconsistencias como: datos duplicados, datos
                faltantes, datos erróneos, etc. Del mismo modo se han agrupado aquellos términos
                semejantes. Una vez que el conjunto de datos se ha limpiado, la base de datos está
                lista para iniciar la aplicación de los algoritmos descritos anteriormente. </p>
            <p>Por otro lado, para obtener un modelo clasificador/predictor más amplio y que pueda
                generalizarse, es necesario separar el conjunto de datos en datos de entrenamiento y
                datos de prueba. Los primeros ayudan a enseñarle al algoritmo para que pueda
                predecir un valor o un conjunto de ellos; mientras que los segundos se utilizan para
                conocer el desempeño final de un modelo, es decir, para comprobar que el algoritmo
                ha aprendido a predecir un determinado valor (<xref ref-type="bibr" rid="B32">Witten
                    et al., 2016</xref>). De esta manera, considerando que el conjunto de datos
                tiene 10 635 muestras, se ha separado el 80% de los datos para entrenamiento (8 509
                muestras) y el resto para la realización de las pruebas. La distribución de clases
                se detalla en la <xref ref-type="table" rid="t3">Tabla 3</xref>. </p>
            <p>Con la finalidad de validar los resultados obtenidos con muestras no conocidas (ver
                    <xref ref-type="table" rid="t3">Tabla 3</xref>), se realiza validación cruzada
                de 10 particiones (es un método útil para calcular el porcentaje de aciertos
                esperado cuando se realiza una clasificación). Para descubrir las variables
                relevantes que intervienen en la deserción se utilizan los algoritmos C4.5 y el
                REPTree. También, para fines comparativos, se emplean los algoritmos Bayes ingenuo,
                bosques aleatorios y máquinas de soporte vectorial, con la confianza de obtener
                rendimientos iguales o superiores a los presentados en la sección de trabajos
                relacionados. Finalmente, para la aplicación de los algoritmos descritos se utiliza
                el software para minería de datos Weka versión 3.8 (<xref ref-type="bibr" rid="B12"
                    >Frank et al., 2016</xref>). </p>
            <p>Análisis de la información: Una vez descubiertas las primeras variables importantes,
                con el uso de árboles de decisión, se complementa el análisis usando algoritmos de
                selección de atributos, ya que favorecen la identificación de aquellos atributos más
                importantes en un conjunto de datos dado. Los algoritmos de clasificación empleados
                dentro de cada empaquetador (selector de características) son los mismos que fueron
                usados anteriormente. Otro factor que ayuda en el análisis y entendimiento de los
                resultados, obtenidos por el modelo de árboles de decisión es su fácil
                interpretación mediante reglas de decisión que son derivadas del árbol generado en
                el entrenamiento.</p>
        </sec>
        <sec sec-type="results">
            <title>III. Resultados</title>
            <p>Tal como se estableció en la metodología, antes de realizar el descubrimiento del
                conocimiento es necesario conocer cómo se comportan los modelos de aprendizaje
                computacional empleados para clasificar a los desertores, utilizando la totalidad de
                los atributos de la base de datos. Se observa en la <xref ref-type="table" rid="t4"
                    >Tabla 4</xref> que, después de realizar validación cruzada usando el conjunto
                de datos de prueba, los clasificadores con la mejor exactitud son los árboles de
                decisión C4.5 y REPTree. De igual manera, los resultados obtenidos, tanto de los
                bosques aleatorios como de la máquina de soporte vectorial son competitivos,
                comparados con los dos árboles de decisión; no así para el clasificador Bayes
                ingenuo. </p>
            <p>
                <table-wrap id="t4">
                    <label>Tabla 4</label>
                    <caption>
                        <title>Medidas de rendimiento de clasificación evaluando al conjunto de
                            datos de prueba usando todos los atributos</title>
                    </caption>
                    <table>
                        <colgroup>
                            <col/>
                            <col/>
                            <col/>
                        </colgroup>
                        <thead>
                            <tr>
                                <th align="left"><bold>Clasificador</bold></th>
                                <th align="center"><bold>Exactitud</bold></th>
                                <th align="center"><bold>TEB</bold></th>
                            </tr>
                        </thead>
                        <tbody>
                            <tr>
                                <td align="left">Árbol de decisión C4.5</td>
                                <td align="center">92.1919%</td>
                                <td align="center">12.85%</td>
                            </tr>
                            <tr>
                                <td align="left">Árbol de decisión REPTree</td>
                                <td align="center">92.1919%</td>
                                <td align="center">12.85%</td>
                            </tr>
                            <tr>
                                <td align="left">Bosques aleatorios</td>
                                <td align="center">90.3575%</td>
                                <td align="center">15.87%</td>
                            </tr>
                            <tr>
                                <td align="left">SVM (func. base radial)</td>
                                <td align="center">90.2634%</td>
                                <td align="center">15.54%</td>
                            </tr>
                            <tr>
                                <td align="left">Bayes ingenuo</td>
                                <td align="center">65.2399%</td>
                                <td align="center">37.96%</td>
                            </tr>
                        </tbody>
                    </table>
                </table-wrap>
            </p>
            <p>Como se ha mencionado antes, la base de datos utilizada está desbalanceada respecto a
                sus clases (desertor y no-desertor), por ello se ha utilizado la medida de tasa de
                error balanceado (TEB) obtenido por cada uno de los algoritmos (<xref
                    ref-type="table" rid="t4">Tabla 4</xref>) para sopesar los resultados de la
                medida de exactitud, con el objetivo de poder elegir el mejor modelo. En este caso,
                se elige a ambos árboles de decisión, ya que proporcionan las máximas exactitudes y
                los mínimos TEB.</p>
            <p>En la <xref ref-type="table" rid="t5">Tabla 5</xref> se muestran las matrices de
                confusión obtenidas, donde se describe a detalle el desempeño por clase de cada
                clasificador. Asimismo, se advierte que todos los clasificadores (con excepción del
                Bayes ingenuo) se equivocan clasificando a los desertores en mayor proporción que
                los no desertores (nótese los resultados de la diagonal de cada matriz). Lo anterior
                se conoce como sesgo de clasificación hacia la clase mayoritaria. Aunque la mayoría
                de los clasificadores de la <xref ref-type="table" rid="t4">Tabla 4</xref> tienen un
                desempeño similar al obtenido por los árboles de decisión, éstos no ofrecen la
                facilidad de interpretación que ofrecen los árboles de decisión. Por esta razón, y
                debido a la habilidad que tienen para realizar selección de características, se
                continúa con el análisis usando los algoritmos C4.5 y REPTree.</p>
            <p>
                <table-wrap id="t5">
                    <label>Tabla 5</label>
                    <caption>
                        <title>Matrices de confusión resultantes de los clasificadores
                            seleccionados</title>
                    </caption>
                    <table>
                        <colgroup>
                            <col/>
                            <col span="2"/>
                            <col/>
                            <col/>
                            <col span="2"/>
                        </colgroup>
                        <thead>
                            <tr>
                                <th align="left" rowspan="2"><bold>Clasificador</bold></th>
                                <th align="center" colspan="2"><bold>Predicción</bold></th>
                                <th align="center"><bold> </bold></th>
                                <th align="center"><bold>Clasificador</bold></th>
                                <th align="center" colspan="2"><bold>Predicción</bold></th>
                            </tr>
                            <tr>
                                <th align="center"><bold>Verdadero</bold></th>
                                <th align="center"><bold>Falso</bold></th>
                                <th align="center"><bold> </bold></th>
                                <th align="justify"><bold> </bold></th>
                                <th align="center"><bold>Verdadero</bold></th>
                                <th align="center"><bold>Falso</bold></th>
                            </tr>
                        </thead>
                        <tbody>
                            <tr>
                                <td align="left" rowspan="2">Bayes ingenuo</td>
                                <td align="center">348</td>
                                <td align="center">298</td>
                                <td align="left">Verdadero</td>
                                <td align="left" rowspan="2">Árbol de decisión C4.5</td>
                                <td align="center">480</td>
                                <td align="center">166</td>
                            </tr>
                            <tr>
                                <td align="center">441</td>
                                <td align="center">1,039</td>
                                <td align="left">Falso</td>
                                <td align="center">0</td>
                                <td align="center">1,480</td>
                            </tr>
                            <tr>
                                <td align="left" rowspan="2">Árbol de decisión REPTree</td>
                                <td align="center">480</td>
                                <td align="center">166</td>
                                <td align="left">Verdadero</td>
                                <td align="left" rowspan="2">Bosques aleatorios</td>
                                <td align="center">441</td>
                                <td align="center">205</td>
                            </tr>
                            <tr>
                                <td align="center">0</td>
                                <td align="center">1,480</td>
                                <td align="left">Falso</td>
                                <td align="center">0</td>
                                <td align="center">1,480</td>
                            </tr>
                            <tr>
                                <td align="left" rowspan="2">SVM (func. base radial)</td>
                                <td align="center">450</td>
                                <td align="center">196</td>
                                <td align="left">Verdadero</td>
                                <td align="justify"> </td>
                                <td align="center"> </td>
                                <td align="center"> </td>
                            </tr>
                            <tr>
                                <td align="center">11</td>
                                <td align="center">1,469</td>
                                <td align="left">Falso</td>
                                <td align="justify"> </td>
                                <td align="center"> </td>
                                <td align="center"> </td>
                            </tr>
                        </tbody>
                    </table>
                </table-wrap>
            </p>
            <p>Aunque el desempeño de ambos árboles de decisión es exactamente el mismo (en términos
                de las medidas de exactitud y TEB), el árbol de decisión obtenido por REPTree es
                menos profundo y amplio que el árbol generado por C4.5. Esto significa que genera un
                árbol menos complejo, por lo que las reglas derivadas de éste (para caracterizar a
                un desertor) incluyen un número reducido de atributos, haciendo que la
                interpretación sea más fácil. Lo anterior es posible gracias al proceso de poda
                realizado por el árbol de decisión REPTree (ver <xref ref-type="fig" rid="f2">Figura
                    2</xref>), el cual reduce el número de variables a cuatro (“asistencia”, “último
                semestre”, “período” y “créditos cursados”), las cuales pueden considerarse
                preliminarmente como las más representativas para este problema.</p>
            <p>
                <fig id="f2">
                    <label>Figura 2</label>
                    <caption>
                        <title>Árbol de decisión REPTree generado a partir del conjunto de datos de
                            entrenamiento usando la totalidad de atributos</title>
                    </caption>
                    <graphic xlink:href="1607-4041-redie-23-e29-gf2.png"/>
                </fig>
            </p>
            <p>Los árboles de decisión, como el generado en la <xref ref-type="fig" rid="f2">Figura
                    2</xref>, se pueden traducir en reglas de decisión, que ayudan a explicar qué
                factores intervienen en un problema de clasificación. Las reglas suelen ser de la
                forma “si premisas, entonces conclusión”, donde las premisas que intervienen se
                conectan entre sí, mediante la operación lógica “y”. Finalmente, la consecuencia o
                conclusión, en este caso representa a la clase en cuestión; es decir, si el
                estudiante es desertor o no-desertor.</p>
            <p>Ahora, para traducir el árbol generado a reglas de decisión y conocer qué factores
                intervienen en el fenómeno de la deserción, basta con analizar al conjunto de
                premisas implicadas, exclusivamente de aquellas ramas cuyas hojas corresponden a la
                clase desertor. Por ejemplo, el árbol generado de la <xref ref-type="fig" rid="f2"
                    >Figura 2</xref>, donde sólo se consideran aquellas hojas que corresponden a la
                clase desertor, es decir, cuya etiqueta es igual a “1”, son útiles para generar las
                reglas de decisión del problema de deserción. Dichas reglas se muestran en la <xref
                    ref-type="table" rid="t4">Tabla 4</xref>, donde la primera columna corresponde
                al número de la regla y la segunda columna corresponde a la regla de decisión
                correspondiente.</p>
            <p>Por ejemplo, la regla número 7 pertenece al recorrido que se le hace al árbol desde
                su raíz hasta la hoja 7 de la <xref ref-type="fig" rid="f2">Figura 2</xref>. Dicha
                regla establece que “los estudiantes desertaron, entre el período de 2016-2017,
                cuando la asistencia del estudiante fue inferior al 91.5% y el último semestre
                cursado del estudiante es inferior al quinto”. Este tipo de reglas puede ayudar a
                planear una estrategia que ayude a prevenir la deserción enfocándose sólo en los
                estudiantes que cursan los primeros cinco semestres de la carrera.</p>
            <p>Otro ejemplo es la regla número 16, la cual involucra a una mayor cantidad de
                premisas y establece que “repetidamente en algunos períodos de 2014 a 2016, un
                subconjunto de estudiantes desertó cuando cursaban algún semestre superior al
                quinto, contando con un porcentaje de créditos cursados inferior a 44.5%, y a pesar
                de que contaban con una asistencia superior al 91.5%”.</p>
            <p>De este modo, el conjunto de reglas de la <xref ref-type="table" rid="t6">Tabla
                    6</xref> indica que el problema de deserción se encuentra focalizado en los
                primeros cinco semestres de estudio. También, se puede interpretar que, para los
                primeros dos semestres de estudio, la “asistencia” es importante, mientras que, en
                los semestres de tercero a quinto, ésta ya no es tan relevante.</p>
            <p>
                <table-wrap id="t6">
                    <label>Tabla 6</label>
                    <caption>
                        <title>Reglas de decisión obtenidas a partir del entrenamiento del árbol de
                            decisión REPTree usando la totalidad de los atributos</title>
                    </caption>
                    <table>
                        <colgroup>
                            <col/>
                            <col/>
                        </colgroup>
                        <thead>
                            <tr>
                                <th align="center"><bold>#</bold></th>
                                <th align="left"><bold>Reglas</bold></th>
                            </tr>
                        </thead>
                        <tbody>
                            <tr>
                                <td align="center">2</td>
                                <td align="left">(ASISTENCIA&lt;91.5%) Y (ULTIMO_SEMESTRE&lt;5.5) Y
                                    (PERIODO&lt;2016.5) ENTONCES (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">7</td>
                                <td align="left">(ASISTENCIA&lt;91.5%) Y (ULTIMO_SEMESTRE&lt;5.5) Y
                                    (PERIODO&gt;=2016.5) Y (PERIODO&lt;2017.5) Y
                                    (ULTIMO_SEMESTRE&lt;2.475) ENTONCES (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">9</td>
                                <td align="left">(ASISTENCIA&gt;=91.5%) Y (ULTIMO_SEMESTRE&lt;3.52)
                                    Y (PERIODO&gt;=2016.5) Y (PERIODO&lt;2017.5) Y
                                    (ULTIMO_SEMESTRE&lt;2.475) ENTONCES (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">11</td>
                                <td align="left">(ASISTENCIA&gt;=91.5%) Y (ULTIMO_SEMESTRE&gt;=3.52)
                                    Y (PERIODO&lt;2016.5) Y (ULTIMO_SEMESTRE&lt;5.5) Y
                                    (PERIODO&lt;2015.5) ENTONCES (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">13</td>
                                <td align="left">(ASISTENCIA&gt;=91.5%) Y (ULTIMO_SEMESTRE&gt;=3.52)
                                    Y (PERIODO&lt;2016.5) Y (ULTIMO_SEMESTRE&lt;5.5) Y
                                    (PERIODO&gt;=2015.5) Y (ULTIMO_SEMESTRE&lt;4.51) ENTONCES
                                    (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">16</td>
                                <td align="left">(ASISTENCIA&gt;=91.5%) Y (ULTIMO_SEMESTRE&gt;=3.52)
                                    Y (PERIODO&lt;2016.5) Y (ULTIMO_SEMESTRE&gt;=5.5) Y
                                    (CREDITOS_CURSADOS&lt;44.5%) Y (PERIODO&lt;2015.5) Y
                                    (PERIODO&lt;2014.5) ENTONCES (ESTATUS=DESERTOR)</td>
                            </tr>
                        </tbody>
                    </table>
                </table-wrap>
            </p>
            <p>Al mismo tiempo, para identificar las principales variables que influyen en la
                decisión de desertar, se emplea el algoritmo de Relief para jerarquizar los
                atributos acorde con la relevancia para predecir a un desertor, tal como se muestra
                en la primera columna de la <xref ref-type="table" rid="t7">Tabla 7</xref>, donde se
                observa a las 12 variables en forma ordenada. Complementariamente, se han probado
                los algoritmos de selección secuencial hacia adelante y hacia atrás pero no se
                reportan los resultados debido a que las características seleccionadas no ayudan a
                mejorar el rendimiento de predicción.</p>
            <p>
                <table-wrap id="t7">
                    <label>Tabla 7</label>
                    <caption>
                        <title>Máxima exactitud de clasificación, empleando el método de selección
                            Relief y cada uno de los algoritmos de aprendizaje computacional
                            seleccionados</title>
                    </caption>
                    <table>
                        <colgroup>
                            <col/>
                            <col/>
                            <col/>
                            <col/>
                            <col/>
                            <col/>
                        </colgroup>
                        <thead>
                            <tr>
                                <th align="left"><bold>Ranking de variables</bold></th>
                                <th align="center"><bold>Árbol de decisión C4.5</bold></th>
                                <th align="center"><bold>Árbol de decisión REPTree</bold></th>
                                <th align="center"><bold>Bosques aleatorios</bold></th>
                                <th align="center"><bold>SVM (func. base radial)</bold></th>
                                <th align="center"><bold>Bayes ingenuo</bold></th>
                            </tr>
                        </thead>
                        <tbody>
                            <tr>
                                <td align="left">1. Período</td>
                                <td align="center">69.6143%</td>
                                <td align="center">69.6143%</td>
                                <td align="center">69.6143%</td>
                                <td align="center">69.6143%</td>
                                <td align="center">69.6143%</td>
                            </tr>
                            <tr>
                                <td align="left">2. Último semestre</td>
                                <td align="center">92.1919%</td>
                                <td align="center">92.1919%</td>
                                <td align="center">92.1919%</td>
                                <td align="center">92.1919%</td>
                                <td align="center">84.7601%</td>
                            </tr>
                            <tr>
                                <td align="left">3. Créditos cursados</td>
                                <td align="center">88.7112%</td>
                                <td align="center">92.1919%</td>
                                <td align="center">90.2634%</td>
                                <td align="center">89.6049%</td>
                                <td align="center">71.4487%</td>
                            </tr>
                            <tr>
                                <td align="left">4. Asistencia</td>
                                <td align="center">92.1919%</td>
                                <td align="center">92.1919%</td>
                                <td align="center">90.1693%</td>
                                <td align="center">87.3001%</td>
                                <td align="center">80.0094%</td>
                            </tr>
                            <tr>
                                <td align="left">5. Programa</td>
                                <td align="center">92.1919%</td>
                                <td align="center">92.1919%</td>
                                <td align="center">90.5456%</td>
                                <td align="center">87.5823%</td>
                                <td align="center">80.0094%</td>
                            </tr>
                            <tr>
                                <td align="left">6. Área</td>
                                <td align="center">92.1919%</td>
                                <td align="center">92.1919%</td>
                                <td align="center">90.6397%</td>
                                <td align="center">88.7582%</td>
                                <td align="center">80.1035%</td>
                            </tr>
                            <tr>
                                <td align="left">7. Estado de procedencia</td>
                                <td align="center">92.1919%</td>
                                <td align="center">92.1919%</td>
                                <td align="center">90.7808%</td>
                                <td align="center">89.2756%</td>
                                <td align="center">79.9153%</td>
                            </tr>
                            <tr>
                                <td align="left">8. Reprobadas</td>
                                <td align="center">94.2145%</td>
                                <td align="center">92.1919%</td>
                                <td align="center">90.6867%</td>
                                <td align="center">90.7338%</td>
                                <td align="center">81.2794%</td>
                            </tr>
                            <tr>
                                <td align="left">9. Promedio actual</td>
                                <td align="center">94.2145%</td>
                                <td align="center">92.1919%</td>
                                <td align="center">90.7808%</td>
                                <td align="center">90.9690%</td>
                                <td align="center">65.3340%</td>
                            </tr>
                            <tr>
                                <td align="left">10. Edad</td>
                                <td align="center">92.1919%</td>
                                <td align="center">92.1919%</td>
                                <td align="center">90.4986%</td>
                                <td align="center">90.8749%</td>
                                <td align="center">65.2399%</td>
                            </tr>
                            <tr>
                                <td align="left">11. Género</td>
                                <td align="center">92.1919%</td>
                                <td align="center">92.1919%</td>
                                <td align="center">90.4986%</td>
                                <td align="center">90.9219%</td>
                                <td align="center">65.2399%</td>
                            </tr>
                            <tr>
                                <td align="left">12. Beca</td>
                                <td align="center">92.1919%</td>
                                <td align="center">92.1919%</td>
                                <td align="center">90.3575%</td>
                                <td align="center">90.2634%</td>
                                <td align="center">65.2399%</td>
                            </tr>
                        </tbody>
                    </table>
                </table-wrap>
            </p>
            <p>En el caso de Relief, se han colocado a los atributos “período” y “último semestre”
                como las variables más importantes que describen a la deserción universitaria. Como
                se ilustra en la <xref ref-type="table" rid="t7">Tabla 7</xref>, las columnas (de la
                segunda en adelante) representan los resultados de exactitud de clasificación
                obtenidos agregando un atributo a la vez al clasificador de manera progresiva y
                acumulativa, desde la variable más importante hasta la menos importante. </p>
            <p>Por ejemplo, la intersección del tercer renglón con la tercera columna indica que
                REPTree alcanzó una exactitud de clasificación de 92.19%, utilizando como entrada
                solamente a los atributos “período” y “último semestre”.</p>
            <p>En relación con los resultados analizados en la <xref ref-type="table" rid="t7">Tabla
                    7</xref>, casi todos los clasificadores utilizados ofrecen un resultado alto de
                exactitud de clasificación (92.19%), usando los atributos “período” y “último
                semestre”. No obstante, el árbol de decisión C4.5 obtiene una exactitud máxima de
                clasificación de 94.21%, usando ocho variables: “período”, “último semestre”,
                “créditos cursados”, “asistencia”, “programa”, “área”, “estado de procedencia” y
                “reprobadas”, de las cuales 4 coinciden con aquéllas que fueron relevantes para el
                algoritmo REPTree de la fase anterior. Si estas variables son utilizadas por el
                método C4.5, el árbol de decisión generado a partir de los datos de entrenamiento es
                el mostrado en la <xref ref-type="fig" rid="f3">Figura 3</xref>. Con respecto al
                procedimiento de construcción de un árbol de decisión mencionado anteriormente,
                obsérvese que el árbol generado ha destacado sólo 6 de 8 variables para obtener una
                exactitud de clasificación de 94.21%, lo cual significa que ha descartado a los
                atributos “área” y “estado de procedencia”, por considerarlos irrelevantes, según la
                medida de importancia (es decir, usando la ganancia de información, medida en
                términos de entropía) incorporada en el algoritmo.</p>
            <p>
                <fig id="f3">
                    <label>Figura 3</label>
                    <caption>
                        <title>Árbol de decisión C4.5 generado a partir del conjunto de datos de
                            entrenamiento usando las variables obtenidas por el método de selección
                            Relief </title>
                    </caption>
                    <graphic xlink:href="1607-4041-redie-23-e29-gf3.png"/>
                </fig>
            </p>
            <p>En consecuencia, en la <xref ref-type="table" rid="t8">Tabla 8</xref> se detallan las
                reglas de decisión de la clase desertor referente al árbol de la <xref
                    ref-type="fig" rid="f3">Figura 3</xref>. A diferencia de la <xref
                    ref-type="table" rid="t7">Tabla 7</xref>, la <xref ref-type="table" rid="t8"
                    >Tabla 8</xref> incluye adicionalmente a los atributos “reprobadas” y
                “programa”, las cuales ayudan a elevar el desempeño del clasificador C4.5, por
                encima del desempeño del árbol REPTree. En términos de rendimiento, el modelo más
                apto para este problema de clasificación es el que corresponde a los árboles de
                decisión C4.5 (<xref ref-type="fig" rid="f3">Figura 3</xref>), debido a que obtiene
                una exactitud de clasificación mayor que REPTree. Esto permite destacar la
                importancia de la selección de atributos para maximizar el rendimiento de los
                clasificadores, encontrando información adicional que finalmente es relevante para
                caracterizar de mejor manera a un desertor.</p>
            <p>
                <table-wrap id="t8">
                    <label>Tabla 8</label>
                    <caption>
                        <title>Reglas de decisión construidas a partir del árbol de decisión C4.5 de
                            la <xref ref-type="fig" rid="f3">Figura 3</xref> usando los atributos
                            obtenidos por Relief</title>
                    </caption>
                    <table>
                        <colgroup>
                            <col/>
                            <col/>
                        </colgroup>
                        <thead>
                            <tr>
                                <th align="center"><bold>#</bold></th>
                                <th align="left"><bold>Reglas</bold></th>
                            </tr>
                        </thead>
                        <tbody>
                            <tr>
                                <td align="center">9</td>
                                <td align="left">(ASISTENCIA&lt;=91%) Y (PERIODO&gt;2016) Y
                                    (REPROBADAS&gt;3%) Y (PERIODO&lt;=2017) Y
                                    (ULTIMO_SEMESTRE&lt;=2) ENTONCES (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">3</td>
                                <td align="left">(ASISTENCIA&gt;91%) Y (ULTIMO_SEMESTRE&lt;=3) Y
                                    (PERIODO&lt;=2016) ENTONCES (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">1</td>
                                <td align="left">(ASISTENCIA&lt;=91%) Y (PERIODO&lt;=2016) Y
                                    (ULTIMO_SEMESTRE&lt;=4) ENTONCES (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">5</td>
                                <td align="left">(ASISTENCIA&lt;=91%) Y (PERIODO&lt;=2016) Y
                                    (ULTIMO_SEMESTRE&gt;4) Y (REPROBADAS&gt;35%) ENTONCES
                                    (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">22</td>
                                <td align="left">(ASISTENCIA&lt;=91%) Y (PERIODO&lt;=2016) Y
                                    (ULTIMO_SEMESTRE&gt;4) Y (REPROBADAS&lt;=35%) Y
                                    (CREDITOS_CURSADOS&lt;=62%) Y (PERIODO&gt;2015) Y
                                    (ASISTENCIA&lt;=90%) Y (CREDITOS_CURSADOS&lt;=25%) ENTONCES
                                    (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">16</td>
                                <td align="left">(ASISTENCIA&lt;=91%) Y (PERIODO&lt;=2016) Y
                                    (ULTIMO_SEMESTRE&gt;4) Y (REPROBADAS&lt;=35%) Y
                                    (CREDITOS_CURSADOS&lt;=62%) Y (PERIODO&lt;=2015) Y
                                    (ULTIMO_SEMESTRE&lt;=6) ENTONCES (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">29</td>
                                <td align="left">(ASISTENCIA&lt;=91%) Y (PERIODO&lt;=2016) Y
                                    (ULTIMO_SEMESTRE&gt;4) Y (REPROBADAS&lt;=35%) Y
                                    (CREDITOS_CURSADOS&lt;=62%) Y (PERIODO&lt;=2015) Y
                                    (ULTIMO_SEMESTRE&gt;6) Y (PERIODO&lt;=2014) Y
                                    (ASISTENCIA&lt;=88%) ENTONCES (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">32</td>
                                <td align="left">(ASISTENCIA&lt;=91%) Y (PERIODO&lt;=2016) Y
                                    (ULTIMO_SEMESTRE&gt;4) Y (REPROBADAS&lt;=35%) Y
                                    (CREDITOS_CURSADOS&lt;=62%) Y (PERIODO&lt;=2015) Y
                                    (ULTIMO_SEMESTRE&gt;6) Y (PERIODO&lt;=2014) Y
                                    (ASISTENCIA&gt;88%) Y (ULTIMO_SEMESTRE&lt;=8) ENTONCES
                                    (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">2</td>
                                <td align="left">(ASISTENCIA&lt;=91%) Y (PERIODO&gt;2016) Y
                                    (REPROBADAS&lt;=3%) ENTONCES (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">25</td>
                                <td align="left">(ASISTENCIA&gt;91%) Y (ULTIMO_SEMESTRE&gt;3) Y
                                    (PERIODO&lt;=2016) Y (ULTIMO_SEMESTRE&lt;=5) Y (PERIODO&gt;2015)
                                    Y (ULTIMO_SEMESTRE&lt;=4) Y (PROGRAMA&lt;=38) Y
                                    (CREDITOS_CURSADOS&gt;25%) ENTONCES (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">18</td>
                                <td align="left">(ASISTENCIA&gt;91%) Y (ULTIMO_SEMESTRE&gt;3) Y
                                    (PERIODO&lt;=2016) Y (ULTIMO_SEMESTRE&lt;=5) Y (PERIODO&gt;2015)
                                    Y (ULTIMO_SEMESTRE&lt;=4) Y (PROGRAMA&gt;38) ENTONCES
                                    (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">19</td>
                                <td align="left">(ASISTENCIA&gt;91%) Y (ULTIMO_SEMESTRE&gt;3) Y
                                    (PERIODO&lt;=2016) Y (ULTIMO_SEMESTRE&gt;5) Y
                                    (ASISTENCIA&lt;=95%) Y (PERIODO&lt;=2014) Y
                                    (ULTIMO_SEMESTRE&lt;=7) ENTONCES (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">30</td>
                                <td align="left">(ASISTENCIA&gt;91%) Y (ULTIMO_SEMESTRE&gt;3) Y
                                    (PERIODO&lt;=2016) Y (ULTIMO_SEMESTRE&gt;5) Y
                                    (ASISTENCIA&lt;=95%) Y (PERIODO&lt;=2014) Y
                                    (ULTIMO_SEMESTRE&gt;7) Y (CREDITOS_CURSADOS&lt;=60%) Y
                                    (REPROBADAS&lt;=15%) ENTONCES (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">27</td>
                                <td align="left">(ASISTENCIA&gt;91%) Y (ULTIMO_SEMESTRE&gt;3) Y
                                    (PERIODO&lt;=2016) Y (ULTIMO_SEMESTRE&gt;5) Y
                                    (ASISTENCIA&lt;=95%) Y (PERIODO&gt;2014) Y (PERIODO&lt;=2015) Y
                                    (ULTIMO_SEMESTRE&lt;=6) ENTONCES (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">13</td>
                                <td align="left">(ASISTENCIA&gt;91%) Y (ULTIMO_SEMESTRE&gt;3) Y
                                    (PERIODO&lt;=2016) Y (ULTIMO_SEMESTRE&lt;=5) Y
                                    (PERIODO&lt;=2015) ENTONCES (ESTATUS=DESERTOR)</td>
                            </tr>
                            <tr>
                                <td align="center">11</td>
                                <td align="left">(ASISTENCIA&gt;91%) Y (ULTIMO_SEMESTRE&lt;=3) Y
                                    (PERIODO&gt;2016) Y (PERIODO&lt;=2017) Y (ULTIMO_SEMESTRE&lt;=2)
                                    ENTONCES (ESTATUS=DESERTOR)</td>
                            </tr>
                        </tbody>
                    </table>
                </table-wrap>
            </p>
            <p>De manera general, las reglas de la <xref ref-type="table" rid="t8">Tabla 8</xref>
                ayudan a describir con detalle lo expresado gráficamente en el árbol de la <xref
                    ref-type="fig" rid="f3">Figura 3</xref>. Es decir, el atributo “asistencia” es
                crucial, sobre todo en los primeros tres semestres. Igual de importantes son los
                atributos “período” y “último semestre”. A partir del cuarto semestre, los atributos
                “reprobadas”, “créditos cursados” y “programa” cobran importancia, mientras que la
                “asistencia” disminuye su relevancia.</p>
            <p>Como ejemplo de interpretación de las reglas de la <xref ref-type="table" rid="t8"
                    >Tabla 8</xref>, se presenta el caso de la regla número 32, la cual se podría
                descifrar de la siguiente manera: “En el período 2014 los estudiantes desertaban, si
                la asistencia era menor o igual al 91%, pero superior al 88%, y además se
                encontraban cursando entre el 6o. y el 8o. semestre, con un porcentaje de reprobadas
                inferior o igual al 35%, pero un avance de créditos cursados inferior o igual al
                62%”. Las demás reglas pueden interpretarse de modo similar.</p>
            <p>De acuerdo al conjunto de datos analizado, se encontró un grupo de reglas que
                describen las características de un estudiante desertor y que el porcentaje de
                incidencia ocurre en los primeros dos años de iniciados los estudios de educación
                superior. Los resultados obtenidos muestran que el algoritmo de árboles de decisión
                (método C4.5) ofrece un desempeño alto y mejor que los publicados en los trabajos
                relacionados (<xref ref-type="table" rid="t1">Tabla 1</xref>).</p>
            <p>Es necesario considerar que los resultados publicados en la literatura relacionada no
                tienen punto de comparación con los resultados mostrados en las <xref
                    ref-type="table" rid="t4">Tablas 4</xref>, <xref ref-type="table" rid="t5"
                    >5</xref>, <xref ref-type="table" rid="t6">6</xref>, <xref ref-type="table"
                    rid="t7">7</xref> y <xref ref-type="table" rid="t8">8</xref> de este estudio,
                debido a las diferencias con la base de datos utilizada. Otras diferencias que
                existen entre nuestra propuesta y las presentadas en el estado del arte son: la
                búsqueda de hiper-parámetros realizada y los algoritmos de minería de datos
                empleados, las cuales tienen como objetivo maximizar la exactitud de clasificación
                para asegurar que el clasificador prediga de la mejor manera a un desertor,
                utilizando muestras no conocidas.</p>
        </sec>
        <sec sec-type="conclusions|discussion">
            <title>IV. Discusión y conclusiones</title>
            <p>Como se mencionó, el objetivo de este estudio es encontrar las variables más
                importantes que inciden en la deserción escolar universitaria con el fin de definir
                un patrón que identifique a un estudiante desertor. De este modo, usando algoritmos
                de selección de atributos se ha encontrado que los atributos más importantes son:
                asistencia, período, último semestre cursado, porcentaje de materias reprobadas,
                créditos cursados y programa. Estos hallazgos discrepan de los factores reportados
                en la literatura (<xref ref-type="bibr" rid="B5">Aulck et al., 2017</xref>; <xref
                    ref-type="bibr" rid="B7">Carvajal y Trejos, 2016</xref>; <xref ref-type="bibr"
                    rid="B17">López y Beltrán, 2017</xref>; <xref ref-type="bibr" rid="B18"
                    >Márquez-Vera et al., 2016</xref>; <xref ref-type="bibr" rid="B24">Ramírez et
                    al., 2016</xref>; <xref ref-type="bibr" rid="B30">Sivakumar et al.,
                2016</xref>), en donde se afirma que las causas que originan la deserción escolar
                están relacionadas con factores académicos, económicos, sociales, creencias,
                desempeño y adicciones, entre otros. Dicha discrepancia se debe al enfoque que se ha
                dado al análisis, al método utilizado para ello y principalmente a las diferencias
                entre las bases de datos empleadas. En otras palabras, en este estudio se le dio una
                perspectiva diferente, dado que se han analizado variables como el 6, 7, 8, 9, 11 y
                12 listados en la <xref ref-type="table" rid="t2">Tabla 2</xref>, que no han sido
                considerados por otros autores (<xref ref-type="table" rid="t1">Tabla 1</xref>) y
                que también son factores que inciden en la deserción.</p>
            <p>En contraste, algunos resultados obtenidos en este estudio se asemejan a los
                obtenidos por <xref ref-type="bibr" rid="B21">Muñoz et al. (2018)</xref> al
                coincidir en que el período estudiado entre los años 2014-2019 sí es un factor
                significativo en la deserción. Por otro lado, se observa en los trabajos
                relacionados resumidos en la <xref ref-type="table" rid="t1">Tabla 1</xref> que la
                exactitud más alta reportada fue de 83.22%, mientras que en este estudio se ha
                logrado una exactitud del 94.21%. Esto implica que un estudiante desertor puede
                caracterizarse mejor usando las reglas de decisión encontradas y listadas en la
                    <xref ref-type="table" rid="t8">Tabla 8</xref>. De igual manera, partiendo de la
                literatura revisada es destacable que para el problema de la clasificación de
                deserción de estudiantes la selección de atributos es poco aplicada. Debido a esto,
                el presente trabajo logra no sólo identificar a un posible desertor, sino que
                permite identificar, de manera jerárquica, aquellos atributos que son más relevantes
                    (<xref ref-type="table" rid="t8">Tabla 8</xref>). </p>
            <p>Sin embargo, una de las limitaciones encontradas fue el bajo número de atributos
                analizados en comparación con los mostrados en la <xref ref-type="table" rid="t1"
                    >Tabla 1</xref>; el hecho de incluir un mayor número de atributos en el estudio
                agregaría la posibilidad de seleccionar uno o más variables importantes, no
                contempladas actualmente, que discriminen de mejor manera cada una de las clases.
                Otro inconveniente es haber encontrado registros incompletos, por lo que se tuvieron
                que descartar del estudio, los cuales podrían haber sido útiles para incrementar el
                rendimiento de los clasificadores empleados.</p>
            <p>Finalmente, los resultados presentados sugieren la integración de una base de datos,
                construida a partir de estándares y protocolos, que incluya muestras adicionales de
                IES públicas y privadas. También, se debería incluir y analizar una mayor cantidad
                de atributos, y la aplicación de otras técnicas de minería de datos, así como evitar
                el desbalanceo de los datos en lo posible, usando algoritmos de balanceo de clases.
                De esta manera, se enriquecería aún más el modelo de clasificación obtenido asociado
                a un estudiante desertor. Es verdad que es valioso que estudios como éste, y otros
                descritos en los trabajos relacionados, puedan ayudar a las IES a prevenir el
                fenómeno de la deserción. Pero aún más valioso es generar un modelo, a partir de una
                base de datos de estas características, incluyendo a la mayoría de IES del país, con
                el cual sería posible ayudar a advertir la deserción oportunamente y con ello
                disminuir los índices de deserción a nivel local y nacional.</p>
        </sec>
    </body>
    <back>
        <ref-list>
            <title>Referencias</title>
            <ref id="B1">
                <mixed-citation>Agaoglu, M. (2016). Predicting instructor performance using data
                    mining techniques in higher education. <italic>IEEE Access, 4</italic>.
                    https://doi.org/10.1109/ACCESS.2016.2568756</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Agaoglu</surname>
                            <given-names>M.</given-names>
                        </name>
                    </person-group>
                    <year>2016</year>
                    <article-title>Predicting instructor performance using data mining techniques in
                        higher education</article-title>
                    <source>IEEE Access, 4</source>
                    <pub-id pub-id-type="doi">10.1109/ACCESS.2016.2568756</pub-id>
                </element-citation>
            </ref>
            <ref id="B2">
                <mixed-citation>Albán, M. y Mauricio, D. (2019). Factors that influence
                    undergraduate university desertion according to students perspective.
                        <italic>International Journal of Engineering and Technology</italic>,
                        <italic>10</italic>(6), 1585-1602.
                    https://dx.doi.org/10.21817/ijet/2018/v10i6/181006017</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Albán</surname>
                            <given-names>M.</given-names>
                        </name>
                        <name>
                            <surname>Mauricio</surname>
                            <given-names>D.</given-names>
                        </name>
                    </person-group>
                    <year>2019</year>
                    <article-title>Factors that influence undergraduate university desertion
                        according to students perspective</article-title>
                    <source>International Journal of Engineering and Technology</source>
                    <volume>10</volume>
                    <issue>6</issue>
                    <fpage>1585</fpage>
                    <lpage>1602</lpage>
                    <pub-id pub-id-type="doi">10.21817/ijet/2018/v10i6/181006017</pub-id>
                </element-citation>
            </ref>
            <ref id="B3">
                <mixed-citation>Al-Barrak, M. A. y Al-Razgan, M. (2016). Predicting student’s final
                    GPA using decision trees: a case study. <italic>International Journal of
                        Information and Education Technology</italic>, 6(7), 528-533. <ext-link
                        ext-link-type="uri" xlink:href="http://www.ijiet.org/vol6/745-IT205.pdf"
                        >http://www.ijiet.org/vol6/745-IT205.pdf</ext-link>
                </mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Al-Barrak</surname>
                            <given-names>M. A.</given-names>
                        </name>
                        <name>
                            <surname>Al-Razgan</surname>
                            <given-names>M.</given-names>
                        </name>
                    </person-group>
                    <year>2016</year>
                    <article-title>Predicting student’s final GPA using decision trees: a case
                        study</article-title>
                    <source>International Journal of Information and Education Technology</source>
                    <volume>6</volume>
                    <issue>7</issue>
                    <fpage>528</fpage>
                    <lpage>533</lpage>
                    <ext-link ext-link-type="uri"
                        xlink:href="http://www.ijiet.org/vol6/745-IT205.pdf"
                        >http://www.ijiet.org/vol6/745-IT205.pdf</ext-link>
                </element-citation>
            </ref>
            <ref id="B4">
                <mixed-citation>Alpaydin, E. (2010). <italic>Introduction to machine
                        learning</italic>. MIT Press.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Alpaydin</surname>
                            <given-names>E.</given-names>
                        </name>
                    </person-group>
                    <year>2010</year>
                    <source>Introduction to machine learning</source>
                    <publisher-name>MIT Press</publisher-name>
                </element-citation>
            </ref>
            <ref id="B5">
                <mixed-citation>Aulck, L., Velagapudi, N., Blumenstock, J. y West, J. (2017).
                    Predicting Student Dropout in Higher Education. <italic>Machine Learning in
                        Social Good Applications</italic>, <italic>16</italic>(20). <ext-link
                        ext-link-type="uri" xlink:href="https://bit.ly/2R2XGdX"
                        >https://bit.ly/2R2XGdX</ext-link>
                </mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Aulck</surname>
                            <given-names>L.</given-names>
                        </name>
                        <name>
                            <surname>Velagapudi</surname>
                            <given-names>N.</given-names>
                        </name>
                        <name>
                            <surname>Blumenstock</surname>
                            <given-names>J.</given-names>
                        </name>
                        <name>
                            <surname>West</surname>
                            <given-names>J.</given-names>
                        </name>
                    </person-group>
                    <year>2017</year>
                    <article-title>Predicting Student Dropout in Higher Education</article-title>
                    <source>Machine Learning in Social Good Applications</source>
                    <volume>16</volume>
                    <issue>20</issue>
                    <ext-link ext-link-type="uri" xlink:href="https://bit.ly/2R2XGdX"
                        >https://bit.ly/2R2XGdX</ext-link>
                </element-citation>
            </ref>
            <ref id="B6">
                <mixed-citation>Bird, S., Klein, E. y Loper, E. (2009). <italic>Natural language
                        processing with python</italic>. O’Reilly Media, Inc.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Bird</surname>
                            <given-names>S.</given-names>
                        </name>
                        <name>
                            <surname>Klein</surname>
                            <given-names>E.</given-names>
                        </name>
                        <name>
                            <surname>Loper</surname>
                            <given-names>E.</given-names>
                        </name>
                    </person-group>
                    <year>2009</year>
                    <source>Natural language processing with python</source>
                    <publisher-name>O’Reilly Media, Inc</publisher-name>
                </element-citation>
            </ref>
            <ref id="B7">
                <mixed-citation>Carvajal, P. y Trejos, A. (2016). <italic>Revisión de estudios sobre
                        deserción estudiantil en educación superior en Latinoamerica bajo la
                        perspectiva de Pierre Bourdieu</italic>. Congreso CLABES, Quito, Ecuador.
                        <ext-link ext-link-type="uri" xlink:href="https://bit.ly/33YO5c2"
                        >https://bit.ly/33YO5c2</ext-link>
                </mixed-citation>
                <element-citation publication-type="confproc">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Carvajal</surname>
                            <given-names>P.</given-names>
                        </name>
                        <name>
                            <surname>Trejos</surname>
                            <given-names>A.</given-names>
                        </name>
                    </person-group>
                    <year>2016</year>
                    <source>Revisión de estudios sobre deserción estudiantil en educación superior
                        en Latinoamerica bajo la perspectiva de Pierre Bourdieu</source>
                    <conf-name>Congreso CLABES</conf-name>
                    <conf-loc>Quito, Ecuador</conf-loc>
                    <ext-link ext-link-type="uri" xlink:href="https://bit.ly/33YO5c2"
                        >https://bit.ly/33YO5c2</ext-link>
                </element-citation>
            </ref>
            <ref id="B8">
                <mixed-citation>Chiheb, F., Boumahdi, F., Bouarfa, H. y Boukraa, D. (2017).
                    Predicting students’ performance using decision trees: Case of an Algerian
                    University. <italic>International Conference on Mathematics and Information
                        Technology</italic> (ICMIT). IEEE, Adrar, Algeria.
                    https://doi.org/10.1109/MATHIT.2017.8259704</mixed-citation>
                <element-citation publication-type="confproc">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Chiheb</surname>
                            <given-names>F.</given-names>
                        </name>
                        <name>
                            <surname>Boumahdi</surname>
                            <given-names>F.</given-names>
                        </name>
                        <name>
                            <surname>Bouarfa</surname>
                            <given-names>H.</given-names>
                        </name>
                        <name>
                            <surname>Boukraa</surname>
                            <given-names>D.</given-names>
                        </name>
                    </person-group>
                    <year>2017</year>
                    <source>Predicting students’ performance using decision trees: Case of an
                        Algerian University</source>
                    <conf-name>International Conference on Mathematics and Information Technology
                        (ICMIT)</conf-name>
                    <conf-sponsor>IEEE</conf-sponsor>
                    <conf-loc>Adrar, Algeria</conf-loc>
                    <pub-id pub-id-type="doi">10.1109/MATHIT.2017.8259704</pub-id>
                </element-citation>
            </ref>
            <ref id="B9">
                <mixed-citation>Clow, D. (2013). An overview of learning analytics. <italic>Teaching
                        in Higher Education</italic>, <italic>18</italic>(6), 683-695.
                    https://doi.org/10.1080/13562517.2013.827653</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Clow</surname>
                            <given-names>D.</given-names>
                        </name>
                    </person-group>
                    <year>2013</year>
                    <article-title>An overview of learning analytics</article-title>
                    <source>Teaching in Higher Education</source>
                    <volume>18</volume>
                    <issue>6</issue>
                    <fpage>683</fpage>
                    <lpage>695</lpage>
                    <pub-id pub-id-type="doi">10.1080/13562517.2013.827653</pub-id>
                </element-citation>
            </ref>
            <ref id="B10">
                <mixed-citation>Devijver, P. A. y Kittler, J. (1982). <italic>Pattern recognition: A
                        statistical approach</italic>. Prentice Hall.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Devijver</surname>
                            <given-names>P. A.</given-names>
                        </name>
                        <name>
                            <surname>Kittler</surname>
                            <given-names>J.</given-names>
                        </name>
                    </person-group>
                    <year>1982</year>
                    <source>Pattern recognition: A statistical approach</source>
                    <publisher-name>Prentice Hall</publisher-name>
                </element-citation>
            </ref>
            <ref id="B11">
                <mixed-citation>Estrada, R. I., Zamarripa-Franco, R. A., Zúñiga-Garay, P. G. y
                    Martínez-Trejo, I. (2016). Aportaciones desde la minería de datos al proceso de
                    captación de matrícula de instituciones de educación superior particulares.
                        <italic>Revista Electrónica Educare</italic>, <italic>20</italic>(3), 1-21.
                    http://dx.doi.org/10.15359/ree.20-3.11</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Estrada</surname>
                            <given-names>R. I.</given-names>
                        </name>
                        <name>
                            <surname>Zamarripa-Franco</surname>
                            <given-names>R. A.</given-names>
                        </name>
                        <name>
                            <surname>Zúñiga-Garay</surname>
                            <given-names>P. G.</given-names>
                        </name>
                        <name>
                            <surname>Martínez-Trejo</surname>
                            <given-names>I.</given-names>
                        </name>
                    </person-group>
                    <year>2016</year>
                    <article-title>Aportaciones desde la minería de datos al proceso de captación de
                        matrícula de instituciones de educación superior
                        particulares</article-title>
                    <source>Revista Electrónica Educare</source>
                    <volume>20</volume>
                    <issue>3</issue>
                    <fpage>1</fpage>
                    <lpage>21</lpage>
                    <pub-id pub-id-type="doi">10.15359/ree.20-3.11</pub-id>
                </element-citation>
            </ref>
            <ref id="B12">
                <mixed-citation>Frank, E., Hall, M. A. y Witten I. H. (2016). <italic>The WEKA
                        workbench. Online appendix for data mining: Practical machine learning tools
                        and techniques</italic>. Morgan Kaufmann.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Frank</surname>
                            <given-names>E.</given-names>
                        </name>
                        <name>
                            <surname>Hall</surname>
                            <given-names>M. A.</given-names>
                        </name>
                        <name>
                            <surname>Witten</surname>
                            <given-names>I. H.</given-names>
                        </name>
                    </person-group>
                    <year>2016</year>
                    <source>The WEKA workbench. Online appendix for data mining: Practical machine
                        learning tools and techniques</source>
                    <publisher-name>Morgan Kaufmann</publisher-name>
                </element-citation>
            </ref>
            <ref id="B13">
                <mixed-citation>Guevara, C., Sanchez, S., Arias, H., Varela, J., Castillo, D.,
                    Borja, M., Fierro, W., Rivera, R., Hidalgo, J. y Yandún, M. (2019). Detection of
                    student behavior profiles applying neural networks and decision trees. En T.
                    Ahram, W. Karwowski, S. Pickl y R. Taiar (Eds.), <italic>Human systems
                        engineering and design II. IHSED 2019. Advances in Intelligent Systems and
                        Computing</italic> (pp. 591-597). Springer.
                    https://doi.org/10.1007/978-3-030-27928-8_90</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Guevara</surname>
                            <given-names>C.</given-names>
                        </name>
                        <name>
                            <surname>Sanchez</surname>
                            <given-names>S.</given-names>
                        </name>
                        <name>
                            <surname>Arias</surname>
                            <given-names>H.</given-names>
                        </name>
                        <name>
                            <surname>Varela</surname>
                            <given-names>J.</given-names>
                        </name>
                        <name>
                            <surname>Castillo</surname>
                            <given-names>D.</given-names>
                        </name>
                        <name>
                            <surname>Borja</surname>
                            <given-names>M.</given-names>
                        </name>
                        <name>
                            <surname>Fierro</surname>
                            <given-names>W.</given-names>
                        </name>
                        <name>
                            <surname>Rivera</surname>
                            <given-names>R.</given-names>
                        </name>
                        <name>
                            <surname>Hidalgo</surname>
                            <given-names>J.</given-names>
                        </name>
                        <name>
                            <surname>Yandún</surname>
                            <given-names>M.</given-names>
                        </name>
                    </person-group>
                    <year>2019</year>
                    <chapter-title>Detection of student behavior profiles applying neural networks
                        and decision trees</chapter-title>
                    <person-group person-group-type="editor">
                        <name>
                            <surname>Ahram</surname>
                            <given-names>T.</given-names>
                        </name>
                        <name>
                            <surname>Karwowski</surname>
                            <given-names>W.</given-names>
                        </name>
                        <name>
                            <surname>Pickl</surname>
                            <given-names>S.</given-names>
                        </name>
                        <name>
                            <surname>Taiar</surname>
                            <given-names>R.</given-names>
                        </name>
                    </person-group>
                    <source>Human systems engineering and design II. IHSED 2019. Advances in
                        Intelligent Systems and Computing</source>
                    <fpage>591</fpage>
                    <lpage>597</lpage>
                    <publisher-name>Springer</publisher-name>
                    <pub-id pub-id-type="doi">10.1007/978-3-030-27928-8_90</pub-id>
                </element-citation>
            </ref>
            <ref id="B14">
                <mixed-citation>Hernández-Sampieri, R. y Mendoza, C. P. (2018). <italic>Metodología
                        de la investigación: Rutas cuantitativa, cualitativa y mixta</italic> (6a.
                    ed.). McGraw Hill. </mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Hernández-Sampieri</surname>
                            <given-names>R.</given-names>
                        </name>
                        <name>
                            <surname>Mendoza</surname>
                            <given-names>C. P.</given-names>
                        </name>
                    </person-group>
                    <year>2018</year>
                    <source>Metodología de la investigación: Rutas cuantitativa, cualitativa y
                        mixta</source>
                    <edition>6</edition>
                    <publisher-name>McGraw Hill</publisher-name>
                </element-citation>
            </ref>
            <ref id="B15">
                <mixed-citation>Kira, K. y Rendell, L. A. (1992). <italic>A practical approach to
                        feature selection. International Conference on Machine Learning</italic>
                    (pp. 249-256). Morgan Kaufmann Publishers.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Kira</surname>
                            <given-names>K.</given-names>
                        </name>
                        <name>
                            <surname>Rendell</surname>
                            <given-names>L. A.</given-names>
                        </name>
                    </person-group>
                    <year>1992</year>
                    <source>A practical approach to feature selection. International Conference on
                        Machine Learning</source>
                    <fpage>249</fpage>
                    <lpage>256</lpage>
                    <publisher-name>Morgan Kaufmann Publishers</publisher-name>
                </element-citation>
            </ref>
            <ref id="B16">
                <mixed-citation>Kononenko, I., Simec, E. y Robnik Sikonja, M. (1997). Overcoming the
                    myopia of inductive learning algorithms with RELIEFF. <italic>Applied
                        Intelligence</italic>, 7(1), 39-55.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Kononenko</surname>
                            <given-names>I.</given-names>
                        </name>
                        <name>
                            <surname>Simec</surname>
                            <given-names>E.</given-names>
                        </name>
                        <name>
                            <surname>Robnik Sikonja</surname>
                            <given-names>M.</given-names>
                        </name>
                    </person-group>
                    <year>1997</year>
                    <article-title>Overcoming the myopia of inductive learning algorithms with
                        RELIEFF</article-title>
                    <source>Applied Intelligence</source>
                    <volume>7</volume>
                    <issue>1</issue>
                    <fpage>39</fpage>
                    <lpage>55</lpage>
                </element-citation>
            </ref>
            <ref id="B17">
                <mixed-citation>López, L. y Beltrán, A. (2017). La deserción en estudiantes de
                    educación superior: tres percepciones en estudio, estudiantes, docentes y padres
                    de familia. <italic>Pistas Educativas</italic>, (126), 143-159. <ext-link
                        ext-link-type="uri" xlink:href="https://bit.ly/2SXOab5"
                        >https://bit.ly/2SXOab5</ext-link>
                </mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>López</surname>
                            <given-names>L.</given-names>
                        </name>
                        <name>
                            <surname>Beltrán</surname>
                            <given-names>A.</given-names>
                        </name>
                    </person-group>
                    <year>2017</year>
                    <article-title>La deserción en estudiantes de educación superior: tres
                        percepciones en estudio, estudiantes, docentes y padres de
                        familia</article-title>
                    <source>Pistas Educativas</source>
                    <issue>126</issue>
                    <fpage>143</fpage>
                    <lpage>159</lpage>
                    <ext-link ext-link-type="uri" xlink:href="https://bit.ly/2SXOab5"
                        >https://bit.ly/2SXOab5</ext-link>
                </element-citation>
            </ref>
            <ref id="B18">
                <mixed-citation>Márquez-Vera, C., Cano, A., Romero, C., Mohammad, A. Y., Fardoun, H.
                    M. y Ventura, S. (2016). Early dropout prediction using data mining: a case
                    study with high school students. <italic>Expert Systems</italic>,
                        <italic>33</italic>(1), 107-125.
                    https://doi.org/10.1111/exsy.12135</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Márquez-Vera</surname>
                            <given-names>C.</given-names>
                        </name>
                        <name>
                            <surname>Cano</surname>
                            <given-names>A.</given-names>
                        </name>
                        <name>
                            <surname>Romero</surname>
                            <given-names>C.</given-names>
                        </name>
                        <name>
                            <surname>Mohammad</surname>
                            <given-names>A. Y.</given-names>
                        </name>
                        <name>
                            <surname>Fardoun</surname>
                            <given-names>H. M.</given-names>
                        </name>
                        <name>
                            <surname>Ventura</surname>
                            <given-names>S.</given-names>
                        </name>
                    </person-group>
                    <year>2016</year>
                    <article-title>Early dropout prediction using data mining: a case study with
                        high school students</article-title>
                    <source>Expert Systems</source>
                    <volume>33</volume>
                    <issue>1</issue>
                    <fpage>107</fpage>
                    <lpage>125</lpage>
                    <pub-id pub-id-type="doi">10.1111/exsy.12135</pub-id>
                </element-citation>
            </ref>
            <ref id="B19">
                <mixed-citation>Mitchell, T. M. (2000). <italic>Decision Tree Learning</italic>.
                    Washington State University.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Mitchell</surname>
                            <given-names>T. M.</given-names>
                        </name>
                    </person-group>
                    <year>2000</year>
                    <source>Decision Tree Learning</source>
                    <publisher-name>Washington State University</publisher-name>
                </element-citation>
            </ref>
            <ref id="B20">
                <mixed-citation>Morales, J. y Parraga-Alava, J. (2018). How predicting the academic
                    success of students of the ESPAM MFL?: A preliminary decision trees based study.
                    Third Ecuador Technical Chapters Meeting (ETCM). Cuenca, Ecuador. <ext-link
                        ext-link-type="uri" xlink:href="https://bit.ly/2SHdDXu"
                        >https://bit.ly/2SHdDXu</ext-link>
                </mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Morales</surname>
                            <given-names>J.</given-names>
                        </name>
                        <name>
                            <surname>Parraga-Alava</surname>
                            <given-names>J.</given-names>
                        </name>
                    </person-group>
                    <year>2018</year>
                    <article-title>How predicting the academic success of students of the ESPAM
                        MFL?: A preliminary decision trees based study</article-title>
                    <source>Third Ecuador Technical Chapters Meeting (ETCM)</source>
                    <publisher-loc>Cuenca, Ecuador</publisher-loc>
                    <ext-link ext-link-type="uri" xlink:href="https://bit.ly/2SHdDXu"
                        >https://bit.ly/2SHdDXu</ext-link>
                </element-citation>
            </ref>
            <ref id="B21">
                <mixed-citation>Muñoz, S., Gallardo, T., Muñoz, M. y Muñoz, C. (2018). Probabilidad
                    de deserción estudiantil en cursos de matemáticas básicas en programas
                    profesionales de la Universidad de los Andes Venezuela. <italic>Formación
                        Universitaria</italic>, <italic>11</italic>(4), 33-42. <ext-link
                        ext-link-type="uri" xlink:href="https://bit.ly/38KFg8d"
                        >https://bit.ly/38KFg8d</ext-link>
                </mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Muñoz</surname>
                            <given-names>S.</given-names>
                        </name>
                        <name>
                            <surname>Gallardo</surname>
                            <given-names>T.</given-names>
                        </name>
                        <name>
                            <surname>Muñoz</surname>
                            <given-names>M.</given-names>
                        </name>
                        <name>
                            <surname>Muñoz</surname>
                            <given-names>C.</given-names>
                        </name>
                    </person-group>
                    <year>2018</year>
                    <article-title>Probabilidad de deserción estudiantil en cursos de matemáticas
                        básicas en programas profesionales de la Universidad de los Andes
                        Venezuela</article-title>
                    <source>Formación Universitaria</source>
                    <volume>11</volume>
                    <issue>4</issue>
                    <fpage>33</fpage>
                    <lpage>42</lpage>
                    <ext-link ext-link-type="uri" xlink:href="https://bit.ly/38KFg8d"
                        >https://bit.ly/38KFg8d</ext-link>
                </element-citation>
            </ref>
            <ref id="B22">
                <mixed-citation>OECD. (2019). <italic>OECD Skills Strategy 2019</italic>. <ext-link
                        ext-link-type="uri" xlink:href="https://bit.ly/2P8GJwL"
                        >https://bit.ly/2P8GJwL</ext-link>
                </mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>OECD</collab>
                    </person-group>
                    <year>2019</year>
                    <source>OECD Skills Strategy 2019</source>
                    <ext-link ext-link-type="uri" xlink:href="https://bit.ly/2P8GJwL"
                        >https://bit.ly/2P8GJwL</ext-link>
                </element-citation>
            </ref>
            <ref id="B23">
                <mixed-citation>Rahi, S. (2017). Research design and methods: A systematic review of
                    research paradigms, sampling issues and instruments development.
                        <italic>International Journal of Economics &amp; Management
                        Sciences</italic>, 6(2). </mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Rahi</surname>
                            <given-names>S.</given-names>
                        </name>
                    </person-group>
                    <year>2017</year>
                    <article-title>Research design and methods: A systematic review of research
                        paradigms, sampling issues and instruments development</article-title>
                    <source>International Journal of Economics &amp; Management Sciences</source>
                    <volume>6</volume>
                    <issue>2</issue>
                </element-citation>
            </ref>
            <ref id="B24">
                <mixed-citation>Ramírez, E., Espinosa, D. y Millán, E. (2016). Estrategia para
                    afrontar la deserción universitaria desde las tecnologías de la información y
                    las comunicaciones. <italic>Revista Científica</italic>, <italic>24</italic>,
                    52-62. https://doi.org/10.14483/udistrital.jour.RC.2016.24.a5</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Ramírez</surname>
                            <given-names>E.</given-names>
                        </name>
                        <name>
                            <surname>Espinosa</surname>
                            <given-names>D.</given-names>
                        </name>
                        <name>
                            <surname>Millán</surname>
                            <given-names>E.</given-names>
                        </name>
                    </person-group>
                    <year>2016</year>
                    <article-title>Estrategia para afrontar la deserción universitaria desde las
                        tecnologías de la información y las comunicaciones</article-title>
                    <source>Revista Científica</source>
                    <volume>24</volume>
                    <fpage>52</fpage>
                    <lpage>62</lpage>
                    <pub-id pub-id-type="doi">10.14483/udistrital.jour.RC.2016.24.a5</pub-id>
                </element-citation>
            </ref>
            <ref id="B25">
                <mixed-citation>Rodríguez-Maya, N. E., Lara-Álvarez, C., May-Tzuc, O. y
                    Suárez-Carranza, B. A. (2017). Modeling Students’ Dropout in Mexican
                    Universities. <italic>Research in Computing Science</italic>,
                        <italic>139</italic>, 163-175. <ext-link ext-link-type="uri"
                        xlink:href="https://www.rcs.cic.ipn.mx/2017_139/Modeling%20Students_%20Dropout%20in%20Mexican%20Universities.pdf"
                        >https://www.rcs.cic.ipn.mx/2017_139/Modeling%20Students_%20Dropout%20in%20Mexican%20Universities.pdf</ext-link>
                </mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Rodríguez-Maya</surname>
                            <given-names>N. E.</given-names>
                        </name>
                        <name>
                            <surname>Lara-Álvarez</surname>
                            <given-names>C.</given-names>
                        </name>
                        <name>
                            <surname>May-Tzuc</surname>
                            <given-names>O.</given-names>
                        </name>
                        <name>
                            <surname>Suárez-Carranza</surname>
                            <given-names>B. A.</given-names>
                        </name>
                    </person-group>
                    <year>2017</year>
                    <article-title>Modeling Students’ Dropout in Mexican
                        Universities</article-title>
                    <source>Research in Computing Science</source>
                    <volume>139</volume>
                    <fpage>163</fpage>
                    <lpage>175</lpage>
                    <ext-link ext-link-type="uri"
                        xlink:href="https://www.rcs.cic.ipn.mx/2017_139/Modeling%20Students_%20Dropout%20in%20Mexican%20Universities.pdf"
                        >https://www.rcs.cic.ipn.mx/2017_139/Modeling%20Students_%20Dropout%20in%20Mexican%20Universities.pdf</ext-link>
                </element-citation>
            </ref>
            <ref id="B26">
                <mixed-citation>Rokach, L. y Maimon, O. (2014). <italic>Data mining with decision
                        trees: Theory and applications</italic>. World Scientific Publishing
                    Co.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Rokach</surname>
                            <given-names>L.</given-names>
                        </name>
                        <name>
                            <surname>Maimon</surname>
                            <given-names>O.</given-names>
                        </name>
                    </person-group>
                    <year>2014</year>
                    <source>Data mining with decision trees: Theory and applications</source>
                    <publisher-name>World Scientific Publishing Co</publisher-name>
                </element-citation>
            </ref>
            <ref id="B27">
                <mixed-citation>Romero, C. y Ventura, S. (2010). Educational data mining: A review
                    of the state of the art. <italic>IEEE Transactions on Systems, Man, and
                        Cybernetics</italic>, <italic>40</italic>(6), 601-618. <ext-link
                        ext-link-type="uri"
                        xlink:href="https://ieeexplore.ieee.org/document/5524021"
                        >https://ieeexplore.ieee.org/document/5524021</ext-link>
                </mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Romero</surname>
                            <given-names>C.</given-names>
                        </name>
                        <name>
                            <surname>Ventura</surname>
                            <given-names>S.</given-names>
                        </name>
                    </person-group>
                    <year>2010</year>
                    <article-title>Educational data mining: A review of the state of the
                        art</article-title>
                    <source>IEEE Transactions on Systems, Man, and Cybernetics</source>
                    <volume>40</volume>
                    <issue>6</issue>
                    <fpage>601</fpage>
                    <lpage>618</lpage>
                    <ext-link ext-link-type="uri"
                        xlink:href="https://ieeexplore.ieee.org/document/5524021"
                        >https://ieeexplore.ieee.org/document/5524021</ext-link>
                </element-citation>
            </ref>
            <ref id="B28">
                <mixed-citation>Sara, N. B., Halland, R., Igel, C. y Alstrup, S. (April, 2015).
                        <italic>High-school dropout prediction using machine learning: A danish
                        large-scale study</italic>. Proceedings, European Symposium on Artificial
                    Neural Networks, Computational Intelligence and Machine Learning. Bruges,
                    Belgium.</mixed-citation>
                <element-citation publication-type="confproc">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Sara</surname>
                            <given-names>N. B.</given-names>
                        </name>
                        <name>
                            <surname>Halland</surname>
                            <given-names>R.</given-names>
                        </name>
                        <name>
                            <surname>Igel</surname>
                            <given-names>C.</given-names>
                        </name>
                        <name>
                            <surname>Alstrup</surname>
                            <given-names>S.</given-names>
                        </name>
                    </person-group>
                    <month>04</month>
                    <year>2015</year>
                    <source>High-school dropout prediction using machine learning: A danish
                        large-scale study</source>
                    <conf-name>European Symposium on Artificial Neural Networks, Computational
                        Intelligence and Machine Learning</conf-name>
                    <conf-loc>Bruges, Belgium</conf-loc>
                </element-citation>
            </ref>
            <ref id="B29">
                <mixed-citation>Secretaría de Educación Pública. (2019a). <italic>Glosario Educación
                        Superior</italic>. <ext-link ext-link-type="uri"
                        xlink:href="https://bit.ly/31PLNLu">https://bit.ly/31PLNLu</ext-link>
                </mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>Secretaría de Educación Pública</collab>
                    </person-group>
                    <year>2019</year>
                    <source>Glosario Educación Superior</source>
                    <ext-link ext-link-type="uri" xlink:href="https://bit.ly/31PLNLu"
                        >https://bit.ly/31PLNLu</ext-link>
                </element-citation>
            </ref>
            <ref id="B30">
                <mixed-citation>Sivakumar, S., Venkataraman, S. y Selvaraj, R. (2016). Predictive
                    modeling of student dropout indicators in educational data mining using improved
                    decision tree. <italic>Indian Journal of Science and Technology</italic>, 9(4),
                    1-5. https://doi.org/10.17485/ijst/2016/v9i4/87032</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Sivakumar</surname>
                            <given-names>S.</given-names>
                        </name>
                        <name>
                            <surname>Venkataraman</surname>
                            <given-names>S.</given-names>
                        </name>
                        <name>
                            <surname>Selvaraj</surname>
                            <given-names>R.</given-names>
                        </name>
                    </person-group>
                    <year>2016</year>
                    <article-title>Predictive modeling of student dropout indicators in educational
                        data mining using improved decision tree</article-title>
                    <source>Indian Journal of Science and Technology</source>
                    <volume>9</volume>
                    <issue>4</issue>
                    <fpage>1</fpage>
                    <lpage>5</lpage>
                    <pub-id pub-id-type="doi">10.17485/ijst/2016/v9i4/87032</pub-id>
                </element-citation>
            </ref>
            <ref id="B31">
                <mixed-citation>Theodoridis, S. y Koutroumbas, K. (2008). <italic>Pattern
                        Recognition</italic>. Academic Press.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Theodoridis</surname>
                            <given-names>S.</given-names>
                        </name>
                        <name>
                            <surname>Koutroumbas</surname>
                            <given-names>K.</given-names>
                        </name>
                    </person-group>
                    <year>2008</year>
                    <source>Pattern Recognition</source>
                    <publisher-name>Academic Press</publisher-name>
                </element-citation>
            </ref>
            <ref id="B32">
                <mixed-citation>Witten, I. H., Frank, E., Hall, M. y Pal, C. (2016). <italic>Data
                        mining: Practical machine learning tools and techniques</italic>. Morgan
                    Kauffman.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Witten</surname>
                            <given-names>I. H.</given-names>
                        </name>
                        <name>
                            <surname>Frank</surname>
                            <given-names>E.</given-names>
                        </name>
                        <name>
                            <surname>Hall</surname>
                            <given-names>M.</given-names>
                        </name>
                        <name>
                            <surname>Pal</surname>
                            <given-names>C.</given-names>
                        </name>
                    </person-group>
                    <year>2016</year>
                    <source>Data mining: Practical machine learning tools and techniques</source>
                    <publisher-name>Morgan Kauffman</publisher-name>
                </element-citation>
            </ref>
            <ref id="B33">
                <mixed-citation>Yamao, E., Saavedra, L. C., Campos, R. y Huancas, V. D. (2018).
                    Prediction of academic performance using data mining in first year students of
                    peruvian university. <italic>CAMPUS</italic>, <italic>23</italic>(26), 151-160.
                    https//doi.org/10.24265/campus.2018.v23n26.05</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Yamao</surname>
                            <given-names>E.</given-names>
                        </name>
                        <name>
                            <surname>Saavedra</surname>
                            <given-names>L. C.</given-names>
                        </name>
                        <name>
                            <surname>Campos</surname>
                            <given-names>R.</given-names>
                        </name>
                        <name>
                            <surname>Huancas</surname>
                            <given-names>V. D.</given-names>
                        </name>
                    </person-group>
                    <year>2018</year>
                    <article-title>Prediction of academic performance using data mining in first
                        year students of peruvian university</article-title>
                    <source>CAMPUS</source>
                    <volume>23</volume>
                    <issue>26</issue>
                    <fpage>151</fpage>
                    <lpage>160</lpage>
                    <pub-id pub-id-type="doi">10.24265/campus.2018.v23n26.05</pub-id>
                </element-citation>
            </ref>
            <ref id="B34">
                <mixed-citation>Yukselturk, E., Ozekes, S. y Kılıç Türel, Y. (2014). Predicting
                    dropout student: an application of data mining methods in an online education
                    program. <italic>European Journal of Open, Distance and e-Learning</italic>,
                        <italic>17</italic>(1), 119-133.
                    https://doi.org/10.2478/eurodl-2014-0008</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Yukselturk</surname>
                            <given-names>E.</given-names>
                        </name>
                        <name>
                            <surname>Ozekes</surname>
                            <given-names>S.</given-names>
                        </name>
                        <name>
                            <surname>Kılıç Türel</surname>
                            <given-names>Y.</given-names>
                        </name>
                    </person-group>
                    <year>2014</year>
                    <article-title>Predicting dropout student: an application of data mining methods
                        in an online education program</article-title>
                    <source>European Journal of Open, Distance and e-Learning</source>
                    <volume>17</volume>
                    <issue>1</issue>
                    <fpage>119</fpage>
                    <lpage>133</lpage>
                    <pub-id pub-id-type="doi">10.2478/eurodl-2014-0008</pub-id>
                </element-citation>
            </ref>
            <ref id="B35">
                <mixed-citation>Zhou, Z. H. (2012). <italic>Ensemble methods: Foundations and
                        algorithms</italic>. Chapman &amp; Hall / CRC Hall / CRC
                    Press.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Zhou</surname>
                            <given-names>Z. H.</given-names>
                        </name>
                    </person-group>
                    <year>2012</year>
                    <source>Ensemble methods: Foundations and algorithms</source>
                    <publisher-name>Chapman &amp; Hall</publisher-name>
                    <publisher-name>CRC Hall</publisher-name>
                    <publisher-name>CRC Press</publisher-name>
                </element-citation>
            </ref>
        </ref-list>
        <fn-group>
            <fn fn-type="other" id="fn1">
                <p><bold>Cómo citar:</bold> Urbina-Nájera, A. B., Téllez-Velázquez, A. y Cruz, R.
                    (2021). Patrones que identifican a estudiantes universitarios desertores
                    aplicando minería de datos educativa. <italic>Revista Electrónica de
                        Investigación Educativa, 23</italic>, e29, 1-15. <ext-link
                        ext-link-type="uri"
                        xlink:href="https://doi.org/10.24320/redie.2021.23.e29.3918"
                        >https://doi.org/10.24320/redie.2021.23.e29.3918</ext-link>
                </p>
            </fn>
        </fn-group>
    </back>
</article>
