DATOS IDENTIFICATIVOS 2019_20
Asignatura (*) PROTECCIÓN DE LA PRIVACIDAD Código 17685107
Titulación
Ing. de la Seguridad Informática e Inteligencia Artificial (2016)
Ciclo
Descriptores Cr.totales Tipo Curso Periodo
4.5 Obligatoria Primer 2Q
Lengua de impartición
Anglès
Departamento Ingeniería Informática y Matemáticas
Coordinador/a
DOMINGO FERRER, JOSEP
Correo-e josep.domingo@urv.cat
Profesores/as
DOMINGO FERRER, JOSEP
Web http://http://crises-deim.urv.cat/privprot
Descripción general e información relevante Aprendre els conceptes bàsics de privadesa, els seus principis legals i les principals estratègies de disseny. Aprendre les tecnologies de privadesa en sistemes informàtics i en sistemes de comunicació. Adquirir un coneixement especialitzat en privadesa en bases de dades, concretament de preservació de la privadesa dels usuaris, del propietaris de les bases de dades i dels subjectes. Aprofundir en anonimització de dades.

Competencias
Tipo A Código Competencias Específicas
 A1 Capacidad para la integración de tecnologías, aplicaciones, servicios y sistemas propios de la Seguridad Informática y la Inteligencia Artificial en contextos más amplios y multidisciplinares.
 A3 Capacidad de comprender y saber aplicar el funcionamiento y organización de Internet, las tecnologías y protocolos de redes de nueva generación, los modelos de componentes, software intermediario y servicios orientados a la privacidad y seguridad informática.
 A4 Capacidad para diseñar, desarrollar, gestionar y evaluar mecanismos de certificación y garantía de seguridad en el tratamiento y acceso a la información en un sistema de procesamiento local o distribuido.
 A5 Capacidad para analizar las necesidades de información que se plantean en un entorno y llevar a cabo en todas sus etapas el proceso de construcción de un sistema de información seguro.
 G1 Capacidad para proyectar, calcular y diseñar productos, procesos e instalaciones en los ámbitos de la Seguridad Informática y la Inteligencia Artificial.
 G2 Capacidad para el modelado matemático, cálculo y simulación en centros tecnológicos y de ingeniería de empresa, particularmente en tareas de investigación, desarrollo e innovación en ámbitos relacionados con la Seguridad Informática y la Inteligencia Artificial.
Tipo B Código Competencias Transversales
 CT2 Formular valoraciones a partir de la gestión y uso eficiente de la información.
 CT3 Resolver problemas complejos de manera crítica, creativa e innovadora en contextos multidisciplinares.
 CT4 Trabajar en equipos multidisciplinares y en contextos complejos.
 CT7 Aplica los principios éticos y de responsabilidad social como ciudadano y como professional.
Tipo C Código Competencias Nucleares

Resultados de aprendizaje
Tipo A Código Resultados de aprendizaje
 A1 Analiza los problemas y sus causas des de un enfoque global y de medio y largo plazo.
 A3 Diseña protocolos de redes y servicios privados para aplicaciones informáticas y telemáticas.
 A4 Diseña tecnologías de garantía de la privacidad para escenarios de aplicaciones informáticas y telemáticas.
 A5 Identifica los componentes de un problema de toma de decisiones y sabe decidir el tipo de modelo de toma de decisiones más adecuado.
 G1 Integra los conocimientos teóricos con las realidades a las cuales se pueden aplicar.
 G2 Aplica las técnicas aprendidas en contextos concretos.
Tipo B Código Resultados de aprendizaje
 CT2 Formula valoraciones a partir de la gestión y el uso eficiente de la información.
 CT3 Resuelve problemas complejos de forma crítica, creativa e innovadora en contextos multidisciplinares.
 CT4 Trabaja en equipos multidisciplinares y en contextos complejos.
 CT7 Aplica los principios éticos y de responsabilidad social como ciudadano y como profesional.
Tipo C Código Resultados de aprendizaje

Contenidos
tema Subtema
1. Introducción a. Conceptos bàsicos de privacidad.
b. Principios legales de privacidad.
c. Criterios de privacidad por diseño.
d. Estrategias de diseño de privacidad.
2. Técnicas de privacidad a. Autenticación.
b. Credenciales basadas en atributos.
c. Comunicaciones privadas seguras.
d. Anonimato y pseudonimato de comunicaciones.
e. Almacenamiento privado.
f. Cálculos con preservación de privacidad.
g. Técnicas de mejora de transparencia.
h. Tècnicas de mejora de la intervenibilidad.
3. Privacidad en bases de datos a. Privacidad del propietario (minería de datos con preservación de la privacidad).
b. Privacidad del usuario (recuperación privada de información).
c. Privacidad del respondiente (anonimización).
4. Privacidad del usuario a. Inconvenientes de la recuperación privada de la información (RPI) estricta.
b. Relajaciones monousuario de la RPI.
c. Relajaciones por pares de la RPI (RPI P2P).
d. Comportamiento racional en RPI P2P.
5. Anonimización en bases de datos a. Conceptos básicos.
b. Modelos de privacidad.
c. Protección de tablas.
d. Protección de bases de datos interactivas.
e. Protección de microdatos (métodos perturbativos de enmascarado, métodos no-perturbativos de enmascarado, generación de microdatos sintéticos).
f. Modelo de permutación para protección de microdatos.
g. Evaluación de los métodos de control de la revelación estadística (utilidad y riesgo de revelación en datos tabulares, utilidad y riesgo de revelación en bases de datos interrogables, utilidad y riesgo de revelación en protección de microdatos, compromiso entre pérdida de utilidad y riesgo de revelación).
h. Software de anonimización.

Planificación
Metodologías  ::  Pruebas
  Competencias (*) Horas en clase
Horas fuera de clase
(**) Horas totales
Actividades introductorias
A3
1 1.5 2.5
Sesión magistral
A1
A3
CT7
26 38.5 64.5
Presentaciones/exposiciones
A3
1 1.5 2.5
Resolución de problemas/ejercicios en el aula ordinaria
A1
G1
G2
CT3
CT4
4 6 10
Prácticas a través de TIC
A3
A4
A5
CT3
CT4
10 15 25
Atención personalizada
A3
1 0 1
 
 
(*) En el caso de docencia no presencial, serán las horas de trabajo con soporte virtual del profesor.
(**) Los datos que aparecen en la tabla de planificación son de carácter orientativo, considerando la heterogeneidad de los alumnos

Metodologías
Metodologías
  descripción
Actividades introductorias Difusión de la actualidad sobre privacidad reflejada en los medios
Sesión magistral Sesiones de teoría
Presentaciones/exposiciones Presentaciones en el aula por parte de grupos de 2 o 3 alumnos de temas especializados concretos propuestos por el profesor.
Resolución de problemas/ejercicios en el aula ordinaria Resolución en el aula por parte de grupos de 2 o 3 alumnos de problemas relacionados con cada tema.
Prácticas a través de TIC Implementación de una tecnología de preservación de la privacidad por parte de cada grupo de 2 o 3 alumnos.
Atención personalizada Atención en el despacho por visita concertada.

Atención personalizada
descripción
Los estudiantes pueden concertar por correo electrónico una entrevista con el profesor cuando lo deseen.

Evaluación
Metodologías Competencias descripción Peso        
Presentaciones/exposiciones
A3
Presentaciones en el aula por parte de grupos de 2 o 3 alumnos de temas especializados concretos propuestos por el profesor. 15%
Resolución de problemas/ejercicios en el aula ordinaria
A1
G1
G2
CT3
CT4
Resolución en el aula por parte de grupos de 2 o 3 alumnos de problemas relacionados con cada tema. 5%
Prácticas a través de TIC
A3
A4
A5
CT3
CT4
Implementación de una tecnología de preservación de la privacidad por parte de cada grupo de 2 o 3 alumnos. 20%
Otros  

Examen invidual

60%
 
Otros comentarios y segunda convocatoria

Fuentes de información

Básica

o   G. D’Acquisto, J. Domingo-Ferrer, P. Kikiras, V. Torra, Y.-A. De Montjoye y A. Bourka (2015) Privacy by Design in Big Data – An overview of privacy enhancing technologies in the era of big data analytics, European Union Agency for Network and Information Security-ENISA.

o   G. Danezis, J. Domingo-Ferrer, M. Hansen, J.-H. Hoepman, D. Le Métayer, R. Tirtea y S. Schiffner (2015) Privacy and Data Protection by Design: From Policy to Engineering, European Union Agency for Network and Information Security-ENISA.

o   J. Domingo-Ferrer, D. Sánchez y J. Soria-Comas (2016) Database Anonymization: Privacy Models, Data Utility and Microaggregation-Based Inter-Model Connections, Morgan & Claypool.

o   A. Hundepool, J. Domingo-Ferrer, L. Franconi, S. Giessing, E. Schulte-Nordholt, K. Spicer y P.-P. de Wolf (2012) Statistical Disclosure Control, Wiley.

Complementaria

Recomendaciones


(*)La Guía docente es el documento donde se visualiza la propuesta académica de la URV. Este documento es público y no es modificable, excepto en casos excepcionales revisados por el órgano competente o debidamente revisado de acuerdo la normativa vigente.