Introducción
La clasificación de imágenes es una de las cargas comunes en las aplicaciones de inteligencia artificial (IA). Aprovecha la eficacia predictiva del Machine Learning para permitir que los sistemas de inteligencia artificial identifiquen elementos reales en función de imágenes.
El servicio de Azure Custom Vision nos permitirá crear nuestros propios modelos de Computer Vision para la clasificación de imágenes o detección de objetos.
En este caso nos permitirá resolver unos de los problemas comunes de Computer Vision, el cual es el análisis imágenes con el fin de Clasificarlas o Categorizarlas.
Aprenderemos como proveer recursos de Azure para Custom Vision, entender la clasificación de imágenes y entrenar nuestro propio modelo para clasificar personajes de Dragon Ball 😊.
Crear los recursos de Custom Vision
Para comenzar vamos a necesitar crear nuestro recurso de Custom Vision lo vamos hacer desde el portal de Azure.
En las opciones de creación vamos a seleccionar Both (Ambos) para Entrenamiento y Predicción.
Seleccionamos nuestra subcripción y luego nuestro grupo de recursos. Podemos utilizar uno ya creado o sino crear un nuevo grupo.
En los detalles de Instancia seleccionamos la región en donde queremos crear nuestros recursos y escribimos un nombre, en mi caso utilicé "DragonBallCharacters" ya que estaba disponible.
Como se muestra en las imágenes, para el recurso de Training y de Prediction nos habilita utilizar una tier Free F0 ( 2 transacciones por segundo y la creación de 2 proyectos). Les comparto este link en donde podrán ver los detalles de los precios.
Continuamos presionando Review + Create.
Chequeamos que pase todas las validaciones y por último precionamos Create.
Hurra!!! ya hemos creado nuestro recurso de Cognitive Services Custom Vision en el portal de Microsoft Azure.
Ahora nos dirigimos al portal de Custom Vision (link)
Ingresamos las mismas credenciales de las cuales usamos para crear los recursos en elportal de Azure.
Accedemos a la page principal de Custom Vision para crear nuestro primer Proyecto. 😉
Presionamos en New Project o Nuevo Proyecto.
Comenzamos a completar los datos solicitados.
Escribimos un nombre para nuestro Proyecto.
Podemos agregar una descripción (es opcional).
Seleccionamos el recurso que hemos creado anteriormente.
En Project Types podemos seleccionar Detección de Objetos (encontrar la ubicación del objeto dentro de una imagen) o Clasificación (clasificar-etiquetar imágenes). Nosotros vamos a seleccionar Classification ya que al comienzo de este post mencionamos que vamos a clasificar personajes de Dragon Ball Z.
En classification Types podemos elegir Multilabel (múltiples etiquetas a una imagen) oMulticlass (una etiqueta específica a la imagen). Nosotros elegimos Multiclass (single tag por imagen).
Cuando llegamos a la opción de Dominios aquí hay que tener varios aspectos en cuenta:
1. Primero, establecer que propósito va a tener nuestro modelo, por ejemplo, si deseamos que este optimizado para fotos de alimentos o retails o puntos de referencia.
2. Segundo, definir si deseamos que sean compactos o no. Esto significa que nuestro modelo lo vamos a exportar para que se ejecute localmente en dispositivos móviles o de IoT.En nuestro caso vamos a utilizar General (compact) [S1].
Para mas información sobre los dominios segun los propositivos de nuestros modelos, los tamaños y los tiempos de inferencia les dejo este link desde la documentación oficial de Microsoft.Para finalizar la creación del Proyecto presionamos en Create project.
Ya hemos creado nuestro proyecto y ahora viene la mejor parte:
- SUBIR NUESTRAS IMAGENES
- ETIQUETAR LAS IMAGENES
- ENTRENAR EL MODELO
- EVALUAR EL RESULTADO
- Para este ejemplo utilicé un Dataset con imagenes de algunos personajes para entrenar nuestro modelo, les comparto el link para que puedan descargar las imágenes.
Seleccionamos add images para comenzar el proceso de upload. Tener en cuenta que las mismas tienen que ser en formato JPG, PNG, BMP y no deben superar los 6MB.
Cuando comiencen a subir las imágenes de cada personaje en algunos casos les puede indicar que no cumplen con estas restricciones y también en el proceso de upload nos informa cuando hay imágenes repetidas.
Por cada personaje que subamos nos brinda la opción de cologar un Tag o etiqueta. En nuestro caso escribimos el nombre del personaje correspondiente a las imágenes.
Ya hemos subido y etiquetado nuestras imágenes. Ahora estamos en condiciones de comenzar a entrenar nuestro modelo.
Arriba a la derecha se encuentra el botón Train.
Podemos seleccionar el tipo de entrenamiento, Quick (Rápido) o Advanced Training.
En entrenamiento avanzado lo debemos utilizar para mejorar el rendimiento, especialmente en datasets complejos y detallados.
En este ejemplo seleccioné entrenamiento avanzado con 1 hora y también indiqué que me comuniqué por mail cuando finaliza. Esa opción sirve cuando seleccionamos muchas horas de entrenamiento en grandes o detallados datasets y puede ocurrir que el mismo finalice antes de lo esperado y por ello nos notifique vía mail.
Si chequean la fecha y la hora del entrenamiento, podemos decir que debe ser unos de los últimos entrenamientos del año que se ejecute en el cloud de Azure. 😊
El entrenamiento termino y ya tenemos nuestra primera iteración.
En esta pestaña de Performance podemos ver las métricas de rendimiento (si hacemos click en la burbuja "i" veremos el signiticado de cada una.
Además, nos detalla el rendimiento por cada etiqueta.
Les comparto un link para entender un poquito más sobre la evaluación del clasificador.
Vamos a realizar un Quick Test de este modelo utilizando una imagen que no se encuentra en nuestro dataset.
Podemos utilizar una imagen desde nuestro computador o utilizar una URL de una imagen.
Les dejo el link de la imagen en la cual realice el Quick Test.
- Nuestro Quick Test nos arrojo una predicción de Goku con un 60,4%. (Muy buen resultado para nuestro primer entrenamiento).
Si nos dirigimos al a pestaña de predicciones (a la izquierda de Train), nos aparece la imagen que utilizamos en el Quick Test.
Todas las imágenes que utilicemos para realizar predicciones sean por Quick Test o cuando publiquemos nuestra url de predicciones nos apareceran en esta pestaña para luego darnos la posibilidad de seleccionarlas y volver a etiquetar correctamente según el personaje de Dragon Ball siguiendo nuestro ejemplo.
Luego de haber realizado este etiquetado de nuestras nuevas imágenes podríamos utlizarlas para un nuevo entrenamiento y poder obtener una nueva iteración.
- Volviendo a la pestaña Performance tendremos algunas acciones importantes para realizar que les mostraré a continuación.
Publicación de la iteración del modelo, en nuestro caso solamente tenemos 1 iteración,pero a medida que continuemos con los entrenamientos vamos a contar con varias iteraciones y nos va a permitir publicar la iteración que mejor rendimiento tenga segun nuestro analisis de metricas y Test del modelo.
Cuando tengamos nuestra publicación en la opción de Prediction URL nos brindará los datos necesarios para poder llamar a esta API para realizar predicciones (he ocultado la prediction-key por seguridad).
Tambien podemos exportar nuestro modelo según las diferentes plataformas como CoreML para iOS, TensorFlow para Android, ONNX para utilizarlo en ML.NET unos de mis frameworks preferidos y también para Dockerfile cuando necesitamos utilizarlos en dispositivos IoT y varios más dandonos flexibilidad en implementaciones.
A la derecha de Quick Test contamos con la opción de Project Settings.
En esta sección vamos a tener todo el detalle de nuestro proyecto como por ejemplo el cúmulo de entrenamientos, etiquetados e iteraciones y además la posibilidad de cambiar de dominio si es necesario.
Utilizando el modelo en Android utilizando Xamarin Form
Recursos
Espero que les sea de utilidad y vean el gran potencial que tienen los servicios cognitivos de Microsoft.
Con solo una cantidad razonable de imágenes podemos crear
modelos robustos para empezar a utilizar en nuestros proyectos.
Happy New Year!!! and Happy Coding!!!
Top comments (0)