Mostrar el registro sencillo del ítem

Trabajo Fin de Máster

dc.contributor.advisorCarrizosa Priego, Emilio Josées
dc.creatorVillalba Pizarro, Fátima del Pilares
dc.date.accessioned2022-06-22T08:14:21Z
dc.date.available2022-06-22T08:14:21Z
dc.date.issued2021-06
dc.identifier.citationVillalba Pizarro, F.d.P. (2021). Explainability and Fairness in Machine Learning. (Trabajo Fin de Máster Inédito). Universidad de Sevilla, Sevilla.
dc.identifier.urihttps://hdl.handle.net/11441/134577
dc.description.abstractOver the years, when speaking about prediction models, the focus has been set on improving their accuracy, at the cost of loosing any comprehension of how the model predicts. Consequently, it has also been lost the ability of knowing if the behavior of the model is correct. Moreover, due to the fact that the addresses of the predictions do not have information about how ethic or fair the model is when predicting, persons become reticent to use such type of models. Therefore, in the last years there have been developed investigations aiming to explain such predictions in order to make them intelligible for humans, using techniques like LIME or SHAP, responsible for explaining in an interpretable way what happens behind the prediction. This work addresses this issue and reviews recent literature on the topic.es
dc.description.abstractA lo largo de los años, en el ámbito de los modelos de predicción, el foco se ha centrado en mejorar las predicciones realizadas por los modelos, perdiendo a cambio toda comprensión a cerca de cómo el modelo realiza la predicción. La pérdida de comprensión conlleva además el desconocimiento del correcto funcionamiento del modelo, así como reticencias a usar dicho modelo de las personas destinatarias de las predicciones al no poseer información acerca de aspectos éticos y justos a la hora de realizar las predicciones. Es por ello que en los últimos años se ha investigado cómo explicar éstas para así hacerlas de nuevo intelegibles para el ser humano, desarrollando técnicas como LIME y SHAP, encargadas de exponer en una forma interpretable por el ser humano lo que sucede detrás de la predicción. En este trabajo abordamos este tema, y revisamos la literatura existente sobre el mismo.es
dc.formatapplication/pdfes
dc.format.extent95 p.es
dc.language.isoenges
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.titleExplainability and Fairness in Machine Learninges
dc.typeinfo:eu-repo/semantics/masterThesises
dc.type.versioninfo:eu-repo/semantics/publishedVersiones
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses
dc.contributor.affiliationUniversidad de Sevilla. Departamento de Estadística e Investigación Operativaes
dc.description.degreeUniversidad de Sevilla. Grado en Física y Matématicases
dc.publication.endPage95es

FicherosTamañoFormatoVerDescripción
MUM VILLALBA PIZARRO, FÁTIMA DEL ...8.793MbIcon   [PDF] Ver/Abrir  

Este registro aparece en las siguientes colecciones

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivatives 4.0 Internacional
Excepto si se señala otra cosa, la licencia del ítem se describe como: Attribution-NonCommercial-NoDerivatives 4.0 Internacional