Skip to content

Material de la charla "The bad guys in AI - atacando sistemas de machine learning"

Notifications You must be signed in to change notification settings

aliciapj/adversarial-networks

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

45 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

The bad guys in AI - atacando sistemas de machine learning"

Descripción

El código de este repositorio ha sido desarrollado por Alicia Pérez, Javier Ordoñez y Beatriz Gómez como demo para la charla "The bad guys in AI - atacando sistemas de machine learning" en el marco de la PyConES de 2018 en Málaga y en el T3chfest 2019.

Las transparencias que acompañan al contenido de la PyConES se pueden encontrar aquí. Las transparencias del T3chfest 2019 están en este enlace.

El vídeo de la charla de la PyConES está disponible en el siguiente enlace, y el vídeo correspondiente a la charla del T3chfest 2019 aquí.

Oráculo - Modelo discriminativo

Instalación

Instalar el fichero de dependencias de la carpeta attack con pip

pip install -r discriminative/requirements.txt

Principales dependencias

  • Pillow 5.2
  • Numpy 1.14
  • Keras 2.2

Entrenamiento del modelo

python discriminative/model_manager.py --train /path/to/train/data

Clasificación

# img_str puede ser una url o un path a la imagen
python discriminative/model_manager.py --predict img_str

Ataque de caja negra

Principales dependencias

  • Pillow 5.2
  • Numpy 1.14
  • Keras 2.2
  • Cleverhans

Instalación

Instalar el fichero de dependencias de la carpeta attack con pip

pip install -r attack/requirements.txt

Releases

No releases published

Packages

No packages published

Contributors 4

  •  
  •  
  •  
  •