Limitaciones y Nuevas Fronteras de Deep Learning (DSW)

You might also like

Download as pptx, pdf, or txt
Download as pptx, pdf, or txt
You are on page 1of 220

http://bit.

ly/PodcastDSW
Cristian Cartagena Matos
Graduated in Mining Engineering

LÍDER DE DEEP LEARNING

https://www.facebook.com/CristianCartagenaMatos/

https://www.linkedin.com/in/cristiancartagenamatos/
VOLUNTARIA DEL GRUPO DE ESTUDIO DE DEEP
LEARNING

www.linkedin.com/in/yahaira-flores/
Grupo de Estudio de Deep Learning
JHOSIMAR GEORGE ARIAS FIGUEROA
Deep Learning Researcher

https://jhosimar.com/

https://www.linkedin.com/in/jariasf/ jariasf03@gmail.com
Tema : "Limitaciones y
Nuevas Fronteras de
Deep Learning"

Jhosimar Arias Figueroa


"Limitaciones y Nuevas Fronteras de Deep
Learning"
Deep Learning

Fuente: MIT 6.S191 (2019): Introduction to Deep Learning


2015 super-human level performance on object recognition
2016 Google neural machine translation

2015 super-human level performance on object recognition


2017 super-human level performance on speech recognition

2016 Google neural machine translation

2015 super-human level performance on object recognition


2018 human-level performance reading comprehension on
SQuAD (Stanford QA dataset)

2017 super-human level performance on speech recognition

2016 Google neural machine translation

2015 super-human level performance on object recognition


2018 human-level performance reading comprehension on
SQuAD (Stanford QA dataset)

2017 super-human level performance on speech recognition

2016 Google neural machine translation

2015 super-human level performance on object recognition


¿Hemos
2018
logrado resolver
human-level performance reading comprehension on
SQuAD (Stanford QA dataset)

estos super-human
2017
problemas con la IA?
level performance on speech recognition

2016 Google neural machine translation

2015 super-human level performance on object recognition


Retos de Deep
Learning
Retos de Deep
Learning
BLACK
+ = BOX
OUTPUT

Disponibilidad de
Robustez Interpretabilidad datos

Computación y
Eficiencia
Sesgo y equidad Razonamiento
Robustez
Large Scale Visual Recognition Challenge
(ILSVRC)

● 1000 clases de objetos


● Conjunto de datos:
○ 1.2M imágenes de entrenamiento
○ 100k imágenes de prueba

Deng et al., ImageNet: A large-scale hierarchical image database, 2009


Clasificación usando redes
convolucionales

perro
gato

carro
...
Large Scale Visual Recognition Challenge
(ILSVRC)
La brecha entre el desarrollo y despliegue de la
IA
Cómo desarrollamos la IA Cómo desplegamos la IA

Crédito de imágenes: Pin-Yu Chen


Accuracy ≠ Adversarial
Robustness

Robustez

Accuracy

Is Robustness the Cost of Accuracy? A


Comprehensive Study on the Robustness of 18 Deep
Image Classification Models, Su et al., ECCV 2018
Ejemplos
Adversarios
Ejemplos adversarios

Cerdo: 91%

Perro: 3%
CNN
Gato: 2%

...
Ejemplos adversarios

Cerdo
Ejemplos adversarios

+ 0.005

Cerdo Ruido
Ejemplos adversarios

+ 0.005
=

Cerdo Ruido ?
Ejemplos adversarios

+ 0.005
=

Cerdo Ruido Avión


Ejemplos adversarios

+ =

How are you? Noise Open the door


Ataques adversarios en imágenes
médicas

Understanding Adversarial Attacks on Deep Learning Based Medical Image


Analysis Systems, Ma et al., 2020
Ataques adversarios en vehículos
autónomos

Fuente: Adversarial Robustness of Deep Learning Models - ECCV 2020 tutorial


Ataques adversarios en vehículos
autónomos

Fuente: Adversarial Robustness of Deep Learning Models - ECCV 2020 tutorial


Ataques adversarios en vehículos
autónomos

Robust Physical-World Attacks on Deep Learning Visual Classification,


Eykholt et al., CVPR'18
Parches adversarios

Fooling automated surveillance cameras: adversarial patches to attack


person detection, Thys et al., CVPR Workshop'19
Variacione
s
Naturales
ImageNet-C: Perturbaciones sobre
ImageNet

Benchmarking Neural Network Robustness to Common Corruptions and

Perturbations, Hendrycks & Dietterich, 2019


De ImageNet a ImageNet-
C

CNN Tigre

Fase de entrenamiento
Training dataset: ImageNet
De ImageNet a ImageNet-
C

CNN Cocodrilo

Fase de prueba
Testing dataset: ImageNet-C
Variaciones Naturales

Model-Based Robust Deep Learning: Generalizing to Natural, Out-of-Distribution


Data, Robey et al., 2020
Variaciones Naturales

Model-Based Robust Deep Learning: Generalizing to Natural, Out-of-Distribution


Data, Robey et al., 2020
Variaciones Naturales

Model-Based Robust Deep Learning: Generalizing to Natural, Out-of-Distribution


Data, Robey et al., 2020
Variaciones Naturales

Model-Based Robust Deep Learning: Generalizing to Natural, Out-of-Distribution


Data, Robey et al., 2020
Variaciones Naturales

Model-Based Robust Deep Learning: Generalizing to Natural, Out-of-Distribution


Data, Robey et al., 2020
Variaciones Naturales

Model-Based Robust Deep Learning: Generalizing to Natural, Out-of-Distribution


Data, Robey et al., 2020
Variaciones naturales provocan una clasificación
errónea

Model-Based Robust Deep Learning: Generalizing to Natural, Out-of-Distribution


Data, Robey et al., 2020
Variaciones naturales provocan una clasificación
errónea

Model-Based Robust Deep Learning: Generalizing to Natural, Out-of-Distribution


Data, Robey et al., 2020
Variaciones naturales provocan una clasificación
errónea

Model-Based Robust Deep Learning: Generalizing to Natural, Out-of-Distribution


Data, Robey et al., 2020
Variaciones naturales provocan una clasificación
errónea

Model-Based Robust Deep Learning: Generalizing to Natural, Out-of-Distribution


Data, Robey et al., 2020
Variaciones naturales provocan una clasificación
errónea

Model-Based Robust Deep Learning: Generalizing to Natural, Out-of-Distribution


Data, Robey et al., 2020
Distribución de los
Datos
¿Cómo se “genera” el conjunto de
datos?

p(x)
¿Cómo se “genera” el conjunto de
datos?

x1 ~ p(x)

p(x)
¿Cómo se “genera” el conjunto de
datos?

x1 ~ p(x) x2 ~ p(x)

p(x)
¿Cómo se “genera” el conjunto de
datos?

x1 ~ p(x) x2 ~ p(x)

x3 ~ p(x)
p(x)
¿Cómo se “genera” el conjunto de
datos?

x1 ~ p(x) x2 ~ p(x)

x4 ~ p(x) x3 ~ p(x)
p(x)
¿Cómo se “genera” el conjunto de
datos?

Conjunto de datos de entrenamiento


x~
p(x)
¿Cómo se “genera” el conjunto de
datos?

Conjunto de datos de prueba

x~
p(x)
¿Cómo se “genera” el conjunto de
datos?

Conjunto de datos de entrenamiento

x~
p(x)
Conjunto de datos de prueba
¿Cómo se “genera” el conjunto de
datos?

Conjunto de datos de entrenamiento

x~
p(x)
Independientes e idénticamente distribuidos (i.i.d) Conjunto de datos de prueba
Clasificación sobre el conjunto de
datos
Clasificación sobre el conjunto de
datos
Clasificación sobre el conjunto de
datos
Clasificación sobre el conjunto de
datos

ptrain(x,y) = ptest(x,y)
Out-of-distribution
(OOD)

ptrain(x,y)
Out-of-distribution
(OOD)

ptrain(x,y)

ptest(x,y)
Out-of-distribution
(OOD)

ptrain(x,y)
ptrain(x,y) ≠ ptest(x,y)
ptest(x,y)
ImageNet-C: Perturbaciones sobre
ImageNet

Benchmarking Neural Network Robustness to Common Corruptions and

Perturbations, Hendrycks & Dietterich, 2019


Adaptación de
Dominio
Reconocimiento visual
estándar

Data de entrenamiento Data de prueba

Entrenar un clasificador en los datos de entrenamiento y aplicarlo directamente a los datos de


prueba

Domain Adaptation for Visual Applications Tutorial, ECCV 2020


Cambio de
dominio

Dominio Fuente Dominio Objetivo

Un clasificador entrenado en un dominio puede funcionar mal en otro dominio

Domain Adaptation for Visual Applications Tutorial, ECCV 2020


Cambio de
dominio

Domain Adaptation for Visual Applications Tutorial, ECCV 2020


Adaptación de
dominio

Domain Adaptation for Visual Applications Tutorial, ECCV 2020


Adaptación de
dominio

Domain Adaptation for Visual Applications Tutorial, ECCV 2020


Generalización de
Dominio
Generalización de
dominio
Generalización de
dominio

Clipart Painting Real Sketch


Generalización de
dominio

Clipart Painting Real Sketch

Dominio Fuente Dominio Objetivo


Generalización de
dominio

Moment Matching for Multi-Source Domain Adaptation, Peng et al., ICCV'19


Out-of-distribution Generalization

Shortcut Learning in Deep Neural Networks, Geirhos et al., 2020


Bias y Fairness
¿Qué hay en esta
imagen?
¿Qué hay en esta
imagen?
sandía

rodajas de sandia

sandia con semillas

sandía jugosa

rodajas de sandía una al lado de


la otra
¿Qué hay en esta
imagen?
¿Qué hay en esta
imagen?

sandía amarilla

rodajas de sandia amarilla

sandía amarilla con semillas

sandía amarilla jugosa

...
¿Qué hay en esta
imagen?
¿Por qué no la sandía roja?

Tendemos a no pensar en el
contenido de esta imagen
como una sandía roja.

El rojo es el color prototípico


de la pulpa de la sandía.
Bias en reconocimiento
facial
Bias en reconocimiento
facial
Bias en clasificación de
imágenes

Ground Truth: Novia


Bias en clasificación de
imágenes

CNN

Ground Truth: Novia


Bias en clasificación de
imágenes
Novia

Vestido

Ceremonia
CNN
Mujer

Boda

Ground Truth: Novia Clases predichas


Bias en clasificación de
imágenes

CNN

Ground Truth: Novia


Bias en clasificación de
imágenes
Ropa

Evento

Disfraz
CNN
Rojo

Arte

Ground Truth: Novia Clases predichas


Bias en todas las etapas del ciclo de la
IA
● Datos: desbalance con respecto a las etiquetas
de clase, características, estructura de entrada
● Modelo: falta de incertidumbre, interpretabilidad
y métricas de desempeño unificadas
● Entrenamiento e despliegue: bucles de
retroalimentación que perpetúan los prejuicios
● Evaluación: realizada de forma masiva, falta de
análisis sistemático con respecto a los
subgrupos de datos
● Interpretación: los errores y sesgos humanos
distorsionan el significado de los resultados
Interpretabilidad
M achine learning

Modelo de
Salida
Aprendizaje
M odelos de caja
negra

Salida
BLACK BOX

Modelo de Machine
Learning

Modelos que no explican sus predicciones de una manera que los humanos puedan entender
Clasificación de cáncer de
piel

Maligno

?
Benigno

Maria
Clasificación de cáncer de
piel

Dermatólogo
Clasificación de cáncer de
piel

Modelo de
Aprendizaje

Dermatólogo
Clasificación de cáncer de
piel

Modelo de
Maligno
Aprendizaje

Dermatólogo
Clasificación de cáncer de
piel
¿Por

qué?

Modelo de
Maligno
Aprendizaje

Dermatólogo
Clasificación de cáncer de
piel
¿Por

qué?

Maligno

Dermatólogo Modelo Interpretable


Explainable AI
(XAI)

Modelo
Black Box
explicable

Dermatólogo
LOBO HUSKY
Clasificación: Lobo o
Husky?
Clasificación: Lobo o
Husky?

Modelo de
Aprendizaje
Clasificación: Lobo o
Husky?

Modelo de
Lobo
Aprendizaje
Clasificación: Lobo o
Husky?

Modelo de
Husky
Lobo
Aprendizaje
Predicted: lobo
True: lobo
Predicted: lobo
True: lobo
Predicted: lobo Predicted: husky
True: lobo True: husky
Predicted: lobo Predicted: husky
True: lobo True: husky
Predicted: lobo Predicted: husky Predicted: lobo
True: lobo True: husky True: lobo
Predicted: lobo Predicted: husky Predicted: lobo
True: lobo True: husky True: lobo
Predicted: lobo Predicted: husky Predicted: lobo
True: lobo True: husky True: lobo

Predicted: lobo
True: husky
Predicted: lobo Predicted: husky Predicted: lobo
True: lobo True: husky True: lobo

Predicted: lobo
True: husky
Predicted: lobo Predicted: husky Predicted: lobo
True: lobo True: husky True: lobo

Predicted: lobo Predicted: husky


True: husky True: husky
Predicted: lobo Predicted: husky Predicted: lobo
True: lobo True: husky True: lobo

Predicted: lobo Predicted: husky


True: husky True: husky
Predicted: lobo Predicted: husky Predicted: lobo
True: lobo True: husky True: lobo

Predicted: lobo Predicted: husky Predicted: lobo


True: husky True: husky True: lobo
Predicted: lobo Predicted: husky Predicted: lobo
True: lobo True: husky True: lobo
¿Podemos confiar en que este modelo funcionará bien en
el mundo real?

Predicted: lobo Predicted: husky Predicted: lobo


True: husky True: husky True: lobo
Explicando el clasificador de
imágenes

Predicted: lobo
True: lobo

"Why Should I Trust You?" Explaining the Predictions of Any Classifier, Ribeiro et al, KDD'16
Explicando el clasificador de
imágenes

Predicted: lobo
True: lobo

"Why Should I Trust You?" Explaining the Predictions of Any Classifier, Ribeiro et al, KDD'16
Explicando el clasificador de
imágenes

Predicted: lobo Predicted: husky


True: lobo True: husky

"Why Should I Trust You?" Explaining the Predictions of Any Classifier, Ribeiro et al, KDD'16
Explicando el clasificador de
imágenes

Predicted: lobo Predicted: husky


True: lobo True: husky

"Why Should I Trust You?" Explaining the Predictions of Any Classifier, Ribeiro et al, KDD'16
Predicted: lobo Predicted: husky Predicted: lobo
True: lobo True: husky True: lobo

Predicted: lobo Predicted: husky Predicted: lobo


True: husky True: husky True: lobo
Predicted: lobo Predicted: husky Predicted: lobo
True: lobo True: husky True: lobo

Predicted: lobo Predicted: husky Predicted: lobo


True: husky True: husky True: lobo
Predicted: lobo Predicted: husky Predicted: lobo
True: lobo True: husky True: lobo
Hemos construido un gran detector de nieve...

Predicted: lobo Predicted: husky Predicted: lobo


True: husky True: husky True: lobo
Fuente de la imagen: Explainable Machine Learning
Fuente de la imagen: Explainable Machine Learning
Disponibilidad de
datos
Conjuntos de
datos masivos

ImageNet: Más de 14 millones de imágenes

MSeg: Más de 220000 máscaras


de objetos GPT-3
¿Cómo aprenden los
humanos?

Fuente de slide: Yann LeCun


Transfer Learning
Transfer
Learning Clase 1

Clase 2
CNN
...

Clase 1000
Transfer
Learning Clase 1

Clase 2
CNN
...

Clase 1000
Transfer
Learning Clase 1

Clase 2
CNN
...

Clase 1000
Pesos
entrenados

Clase 1
CNN
Clase 2

Red
preentrenada
Self-supervised
Learning
Supervised learning

Dog

Cat
(x,y)
Dog

Cat

x y
Supervised learning

Dog

Cat
(x,y)
Dog
Anotación
Manual
Cat

x y
Supervised learning

Dog

Cat
Modelo de
(x,y) Aprendizaje
Salida
Dog
Anotación
Manual
Cat

x y
Semi-supervised learning

Dog

Anotación Cat
Manual

x y

Datos etiquetados
Semi-supervised learning

Dog

Anotación Cat +
Manual

x y

Datos etiquetados Datos no etiquetados


Unsupervised learning

(x) Modelo de
Salida
Aprendizaje

x
Self-supervised learning

x
Self-supervised learning

Dog

Cat

Dog
Anotación
Automática
Cat

x y
Self-supervised learning: Pretext
Task

CNN Pretext Task

La tarea que usamos para el


pre-entrenamiento se conoce como
"pretext task"

Datos no etiquetados

Self-supervised Visual Feature Learning with Deep Neural Networks: A Survey,


Longlong and Yingli, 2019
Self-supervised learning: Downstream
Task

Downstream
CNN Task

Las tareas que luego usamos en


fine-tuning se conocen como
las "downstream task"

Datos etiquetados

Self-supervised Visual Feature Learning with Deep Neural Networks: A Survey,


Longlong and Yingli, 2019
Self-supervised learning

Self-supervised Pretext Task Training

Datos no etiquetados

CNN Pretext
Task

Self-supervised Visual Feature Learning with Deep Neural Networks: A Survey,


Longlong and Yingli, 2019
Self-supervised learning

Self-supervised Pretext Task Training Supervised Downstream Task Training

Datos no etiquetados Datos etiquetados

Downstream
CNN Pretext CNN Task
Task

Transferencia de Conocimiento

Self-supervised Visual Feature Learning with Deep Neural Networks: A Survey,


Longlong and Yingli, 2019
Self-supervised learning:
Parches

A B C
D E
F G H
ion Learning by Context Prediction, Doersch
et al., 2015
Self-supervised learning:
Parches

A B C
D E
F G
Unsupervised Visual Representation Learning by Context Prediction, Doersch
et al., 2015
Self-supervised learning:
Parches

A B C
D E
F G
Unsupervised Visual Representation Learning by Context Prediction, Doersch
et al., 2015
Self-supervised learning:
Parches

Parche de muestra aleatoria

Muestra de segundo parche

Unsupervised Visual Representation Learning by Context Prediction, Doersch


et al., 2015
Self-supervised learning:
Parches

Parche de muestra aleatoria

Muestra de segundo parche

Unsupervised Visual Representation Learning by Context Prediction, Doersch


et al., 2015
Self-supervised learning:
Parches

La tarea de pretexto es predecir la


posición relativa entre dos parches
aleatorios de una imagen

Parche de muestra aleatoria

Muestra de segundo parche

Unsupervised Visual Representation Learning by Context Prediction, Doersch


et al., 2015
Self-supervised learning:
Parches

Parche de muestra aleatoria

Muestra de segundo parche

Unsupervised Visual Representation Learning by Context Prediction, Doersch


et al., 2015
Self-supervised learning:
Rotaciones

Unsupervised Representation Learning by Predicting Image Rotations, Spyros et al.,


ICLR 2018
Self-supervised learning

Colorful Image Colorization, Richard et al., ECCV‘16

Context Encoders: Feature Learning by Inpainting,


Deepak et al., CVPR'16
M asked Language
M odeling

Fuente: Self Supervised Representation Learning in NLP


Self-supervised Learning
Predecir cualquier parte de la entrada a partir de cualquier otra parte

Predecir el futuro desde el pasado Predecir el futuro desde el pasado reciente

Predecir el pasado desde el presente Predecir la parte superior de la parte


inferior

Imagine que hay una parte de la información que no conoce y la predice


Few-shot Learning
Fuente: Few-shot learning, Shusen Wang
Fuente: Few-shot learning, Shusen Wang
Fuente: Few-shot learning, Shusen Wang
¿Son el mismo tipo de animal?

Fuente: Few-shot learning, Shusen Wang


¿Son el mismo tipo de animal?

Fuente: Few-shot learning, Shusen Wang


¿Son el mismo tipo de animal?

Fuente: Few-shot learning, Shusen Wang


M eta-Learning
M eta-Learning

Fuente: Few-shot learning, Shusen Wang


M eta-Learning

Fuente: Few-shot learning, Shusen Wang


M eta-Learning

Fuente: Few-shot learning, Shusen Wang


M eta-Learning

Query:

Fuente: Few-shot learning, Shusen Wang


Few-shot
Learning
● Las muestras de consultas nunca se han visto antes
● Las muestras de consultas son de clases
desconocidas

Fuente: Few-shot learning, Shusen Wang


Few-shot
Learning

Fuente: Few-shot learning, Shusen Wang


Few-shot
Learning

Fuente: Few-shot learning, Shusen Wang


n-way k-shot
learning

Fuente: Few-shot learning, Shusen Wang


Computación y
Eficiencia
Computing Power -
AlphaGO

AlphaGO Lee Se-dol


1920 CPUs + 280 GPUs, 1 Human Brain,
many scientists. 1 Coffee.

AlphaGO
Computing Power - GPT-
3 ● Se necesitarían 355 años para entrenar a
GPT-3 en un Tesla V100

● Le costaría ~$4,600,000 entrenar a GPT-3


usando un proveedor de nube de GPU de
bajo costo

285,000 CPUs + 10,000 GPUs

Language Models are Few-Shot Learners, Brown et al., NeurIPS’20


Modelos pre-entrenados de
NLP

Fuente de la imagen: State of AI Report, 2020


Tamaño del
modelo

Slide Credit: Efficient Methods and Hardware for Deep Learning


Network Pruning

What is the State of Neural Network Pruning?, Blalock et al., MLSys'20


Knowledge Distillation

Fuente de imagen: Knowledge Distillation: Simplified by Prakhar Ganes


Otras técnicas

Tensor Decomposition

Fuente de la imagen: Tensor Decomposition in Python

Quantization

Fuente de la imagen: Making Deep Neural Networks Faster

An Survey of Neural Network Compression, Mishra et al., 2020


Razonamiento
¿Qué está pasando en esta
imagen?

Fuente: The state of Computer Vision and AI: we are really, really far away
¿Qué tan cerca está la inteligencia artificial del
sentido común de un niño pequeño?

Intuitive Physics (objects) Intuitive Psychology (agents)

Crédito de la diapositiva: Josh Tenenbaum


Dos visiones de la
inteligencia
La inteligencia como parámetros de ajuste a conjuntos de datos
● reconocimiento de patrones
● aproximación de funciones
● optimización de políticas

La inteligencia como modelo del mundo


● explicando y entendiendo lo que vemos
● imaginando cosas que podríamos ver pero que aún no hemos visto
● planeando acciones y resolviendo problemas para hacer que estas cosas
sean reales
● construyendo nuevos modelos a medida que aprendemos más sobre el
mundo, aprendiendo tanto de nuestros éxitos como de nuestros fracasos.

Crédito de la diapositiva: Josh Tenenbaum


Razonamiento visual

¿Cuántos bloques hay a la derecha de la ¿Se caerá la torre de bloques si se quita el


torre de tres niveles? bloque superior?

CLEVR: A Diagnostic Dataset for Compositional Language and Elementary


Visual Reasoning, Johnson et al., CVPR'17
Razonamiento visual

¿Hay más árboles que animales? ¿Cuál es la forma del objeto más cercano
al cilindro grande?

CLEVR: A Diagnostic Dataset for Compositional Language and Elementary


Visual Reasoning, Johnson et al., CVPR'17
Redes Neuronales/Deep
Learning

Fuente de la imagen: MIT-IBM Watson AI Lab


Symbolic
AI

Fuente de la imagen:: MIT-IBM Watson AI Lab


Neuro-symbolic
AI

+
deep learning symbolic reasoning
Razonamiento visual

Pregunta: ¿Existe el mismo número de


cosas grandes y esferas de metal?

Slide Credit: Neurosymbolic AI - David D. Cox


Razonamiento visual

Pregunta: ¿Existe el mismo número de


cosas grandes y esferas de metal?

3 cosas

grandes!

Slide Credit: Neurosymbolic AI - David D. Cox


Razonamiento visual

Pregunta: ¿Existe el mismo número de


cosas grandes y esferas de metal?

3 cosas 3 esferas de
metal!
grandes!

Slide Credit: Neurosymbolic AI - David D. Cox


Razonamiento visual

Pregunta: ¿Existe el mismo número de


cosas grandes y esferas de metal?

¿Igual? Si!

3 cosas 3 esferas de
metal!
grandes!

Slide Credit: Neurosymbolic AI - David D. Cox


Razonamiento visual
Question Understanding
Pregunta: ¿Existe el mismo número de
cosas grandes y esferas de metal?

¿Igual? Si!

3 cosas 3 esferas de
metal!
grandes!
Visual Perception
Logic
Reasoning

Slide Credit: Neurosymbolic AI - David D. Cox


Neural-symbolic visual question answering (NS-
VQA)

Neural-Symbolic VQA: Disentangling Reasoning from Vision and Language


Understanding, Yi et al., NeurIPS 2018
Incorporando conceptos en razonamiento
visual

Neural-Symbolic VQA: Disentangling Reasoning from Vision and Language


Understanding, Yi et al., NeurIPS 2018
Incorporando conceptos en razonamiento
visual

Neural-Symbolic VQA: Disentangling Reasoning from Vision and Language


Understanding, Yi et al., NeurIPS 2018
Incorporando conceptos en razonamiento
visual

Neural-Symbolic VQA: Disentangling Reasoning from Vision and Language


Understanding, Yi et al., NeurIPS 2018
Incorporando conceptos en razonamiento
visual

Neural-Symbolic VQA: Disentangling Reasoning from Vision and Language


Understanding, Yi et al., NeurIPS 2018
Incorporando conceptos en razonamiento
visual

Neural-Symbolic VQA: Disentangling Reasoning from Vision and Language


Understanding, Yi et al., NeurIPS 2018
Incorporando conceptos en razonamiento
visual

Neural-Symbolic VQA: Disentangling Reasoning from Vision and Language


Understanding, Yi et al., NeurIPS 2018
Incorporando conceptos en razonamiento
visual

Neural-Symbolic VQA: Disentangling Reasoning from Vision and Language


Understanding, Yi et al., NeurIPS 2018
Retos de Deep
Learning
BLACK
+ = BOX
OUTPUT

Disponibilidad de
Robustez Interpretabilidad datos

Computación y
Eficiencia
Sesgo y equidad Razonamiento
Facebook
https://www.facebook.com/MLDLMeetupAQP/

LinkedIn
https://www.linkedin.com/company/ml-dl-meetup-aqp/

Youtube
https://www.youtube.com/channel/UCZymp9hXtXiGm4RigjLUScA

Comunidad de
M achine Learning Twitter
y Deep Learning
https://twitter.com/MLDLMeetupAQP

Arequipa
Difundir las áreas de Machine Learning y Deep Learning
http://bit.ly/PodcastDSW

You might also like