Índice del contenido[Esconder][Espectáculo]
El mundo está cambiando rápidamente debido a la inteligencia artificial y el aprendizaje automático, que tiene un impacto en todos los aspectos de nuestra vida cotidiana.
Desde asistentes de voz que usan NLP y aprendizaje automático para programar citas, buscar eventos en nuestro calendario y reproducir música hasta dispositivos que son tan precisos que pueden anticipar nuestras necesidades incluso antes de que las consideremos.
Las computadoras pueden jugar al ajedrez, hacer cirugías y convertirse en máquinas más inteligentes y parecidas a los humanos con la ayuda de algoritmos de aprendizaje automático.
Estamos en un momento de continuo avance tecnológico, y al ver cómo se han desarrollado las computadoras a lo largo del tiempo, podemos hacer predicciones sobre lo que sucederá en el futuro.
La democratización de las herramientas y métodos informáticos es uno de los aspectos clave de esta revolución que destaca. Científicos de datos han creado poderosas computadoras de procesamiento de datos durante los últimos cinco años al implementar sin esfuerzo metodologías de vanguardia. Los resultados son asombrosos.
En esta publicación, veremos de cerca máquina de aprendizaje algoritmos y todas sus variantes.
Entonces, ¿qué son los algoritmos de aprendizaje automático?
El enfoque utilizado por el sistema de IA para llevar a cabo su tarea, generalmente, predecir valores de salida a partir de datos de entrada dados, se conoce como algoritmo de aprendizaje automático.
Un algoritmo de aprendizaje automático es un proceso que utiliza datos y se usa para crear modelos de aprendizaje automático que están listos para la producción. Si el aprendizaje automático es el tren que realiza un trabajo, los algoritmos de aprendizaje automático son las locomotoras que mueven el trabajo.
El mejor enfoque de aprendizaje automático para utilizar estará determinado por el problema comercial que intenta abordar, el tipo de conjunto de datos que está utilizando y los recursos que tiene disponibles.
Los algoritmos de aprendizaje automático son aquellos que convierten un conjunto de datos en un modelo. Dependiendo del tipo de problema que intente responder, la potencia de procesamiento disponible y el tipo de datos que tenga, los algoritmos de aprendizaje supervisado, no supervisado o de refuerzo pueden funcionar bien.
Entonces, hablamos de aprendizaje supervisado, no supervisado y de refuerzo, pero ¿qué son? Explorémoslos.
Aprendizaje supervisado, no supervisado y de refuerzo
Aprendizaje supervisado
En el aprendizaje supervisado, el modelo de IA se desarrolla en función de la entrada que se ha proporcionado y la etiqueta que representa el resultado previsto. Con base en las entradas y salidas, el modelo desarrolla una ecuación de mapeo y, utilizando esa ecuación de mapeo, pronostica la etiqueta de las entradas en el futuro.
Digamos que necesitamos crear un modelo que pueda distinguir entre un perro y un gato. Se introducen múltiples fotos de gatos y perros en el modelo con etiquetas que indican si son gatos o perros para entrenar al modelo.
El modelo busca establecer una ecuación que relacione las etiquetas de las fotografías de entrada con esas imágenes. Incluso si el modelo nunca ha visto la imagen antes, después del entrenamiento, puede identificar si se trata de un gato o un perro.
Aprendizaje sin supervisión
El aprendizaje no supervisado implica entrenar un modelo de IA solo en las entradas sin etiquetarlas. El modelo divide los datos de entrada en grupos con características relacionadas.
A continuación, se pronostica la etiqueta futura de la entrada en función de la similitud de sus atributos con una de las clasificaciones. Considere la situación en la que debemos dividir un grupo de bolas rojas y azules en dos categorías.
Supongamos que las demás características de las bolas son idénticas, con la excepción del color. Sobre la base de cómo puede dividir las bolas en dos clases, el modelo busca las características que son diferentes entre las bolas.
Se producen dos grupos de bolas, una azul y otra roja, cuando las bolas se dividen en dos grupos según su tono.
Aprendizaje reforzado
En el aprendizaje por refuerzo, el modelo de IA busca maximizar las ganancias generales actuando lo mejor posible en una circunstancia particular. La retroalimentación sobre sus resultados anteriores ayuda al modelo a aprender.
Piense en el escenario cuando se le indica a un robot que seleccione una ruta entre los puntos A y B. El robot primero elige cualquiera de los cursos porque no tiene experiencia previa.
El robot recibe información sobre la ruta que toma y obtiene conocimiento de ella. El robot puede utilizar la entrada para solucionar el problema la próxima vez que se encuentre con una circunstancia similar.
Por ejemplo, si el robot elige la opción B y recibe una recompensa, como una retroalimentación positiva, esta vez entiende que debe seleccionar la opción B para aumentar su recompensa.
Ahora, finalmente, lo que todos están esperando son los algoritmos.
Principales algoritmos de aprendizaje automático
1. Regresión lineal
El enfoque de aprendizaje automático más simple que se desvía del aprendizaje supervisado es la regresión lineal. Con el conocimiento de las variables independientes, se utiliza principalmente para resolver problemas de regresión y crear predicciones sobre variables dependientes continuas.
Encontrar la línea de mejor ajuste, que puede ayudar a predecir el resultado de las variables dependientes continuas, es el objetivo de la regresión lineal. Los precios de la vivienda, la antigüedad y los salarios son algunos ejemplos de valores continuos.
Un modelo conocido como regresión lineal simple utiliza una línea recta para calcular la asociación entre una variable independiente y una variable dependiente. Hay más de dos variables independientes en la regresión lineal múltiple.
Un modelo de regresión lineal tiene cuatro suposiciones subyacentes:
- Linealidad: Hay una conexión lineal entre X y la media de Y.
- Homocedasticidad: Para todo valor de X, la varianza residual es la misma.
- Independencia: Las observaciones son independientes entre sí en términos de independencia.
- Normalidad: cuando X es fijo, Y se distribuye normalmente.
La regresión lineal funciona admirablemente para los datos que se pueden separar a lo largo de las líneas. Puede controlar el sobreajuste mediante el uso de técnicas de regularización, validación cruzada y reducción de dimensionalidad. Sin embargo, hay casos en los que se requiere una ingeniería de características extensa, lo que ocasionalmente puede resultar en sobreajuste y ruido.
2. Regresión logística
La regresión logística es otra técnica de aprendizaje automático que se aparta del aprendizaje supervisado. Su principal uso es la clasificación, aunque también se puede utilizar para problemas de regresión.
La regresión logística se utiliza para pronosticar la variable dependiente categórica utilizando la información de los factores independientes. El objetivo es clasificar las salidas, que solo pueden estar entre 0 y 1.
El total ponderado de las entradas es procesado por la función sigmoidea, una función de activación que convierte valores entre 0 y 1.
La base de la regresión logística es la estimación de máxima verosimilitud, un método para calcular los parámetros de una distribución de probabilidad asumida dados datos observados específicos.
3. Árbol de decisiones
Otro método de aprendizaje automático que se separa del aprendizaje supervisado es el árbol de decisiones. Tanto para problemas de clasificación como de regresión, se puede emplear el enfoque del árbol de decisión.
Esta herramienta de toma de decisiones, que se asemeja a un árbol, utiliza representaciones visuales para mostrar los posibles resultados, costos y repercusiones de las acciones. Al dividir los datos en porciones separadas, la idea es análoga a la mente humana.
Los datos se han dividido en partes distintas tanto como pudimos granularlos. El objetivo principal de un árbol de decisión es construir un modelo de entrenamiento que pueda usarse para pronosticar la clase de la variable objetivo. Los valores faltantes se pueden manejar automáticamente usando el árbol de decisiones.
No hay requisitos para la codificación de una sola vez, variables ficticias u otros pasos de pretratamiento de datos. Es rígido en el sentido de que es difícil agregarle datos nuevos. Si obtuvo datos etiquetados adicionales, debe volver a entrenar el árbol en todo el conjunto de datos.
Como resultado, los árboles de decisión son una mala elección para cualquier aplicación que requiera un cambio de modelo dinámico.
Según el tipo de variable objetivo, los árboles de decisión se clasifican en dos tipos:
- Variable categórica: un árbol de decisión en el que la variable objetivo es categórica.
- Variable continua: un árbol de decisión en el que la variable objetivo es continua.
4. Bosque aleatorio
El método Random Forest es la próxima técnica de aprendizaje automático y es un algoritmo de aprendizaje automático supervisado que se usa ampliamente en problemas de clasificación y regresión. También es un método basado en árboles, similar a un árbol de decisiones.
El método del bosque aleatorio utiliza un bosque de árboles, o muchos árboles de decisión, para emitir juicios. Al manejar tareas de clasificación, el método de bosque aleatorio empleó variables categóricas mientras manejaba tareas de regresión con conjuntos de datos que contienen variables continuas.
Un conjunto, o la mezcla de muchos modelos, es lo que hace el método de bosque aleatorio, lo que significa que las predicciones se realizan utilizando un grupo de modelos en lugar de uno solo.
La capacidad de usarse tanto para problemas de clasificación como de regresión, que constituyen la mayoría de los sistemas modernos de aprendizaje automático, es un beneficio clave del bosque aleatorio.
Ensemble utiliza dos estrategias diferentes:
- Embolsado: al hacer esto, se producen más datos para el conjunto de datos de entrenamiento. Esto se hace para disminuir la variación en los pronósticos.
- Impulsar es el proceso de combinar aprendices débiles con aprendices fuertes mediante la construcción de modelos sucesivos, lo que da como resultado el modelo final con la máxima precisión.
5. Bayes ingenuo
Un problema de clasificación binaria (dos clases) y multiclase se puede resolver utilizando la técnica Naive Bayes. Cuando el método se explica usando valores de entrada binarios o de categoría, es más fácil de entender. Una suposición hecha por un clasificador Naive Bayes es que la existencia de una característica en una clase no tiene relación con la presencia de ninguna otra característica.
La fórmula anterior indica:
- P(H): La probabilidad de que la hipótesis H sea correcta. La probabilidad previa se conoce como esto.
- P(E): La probabilidad de la evidencia
- P(E|H): La probabilidad de que la hipótesis esté respaldada por la evidencia.
- P(H|E): La probabilidad de que la hipótesis sea verdadera, dada la evidencia.
Un clasificador Naive Bayes tendría en cuenta cada una de estas características individualmente al determinar la probabilidad de un determinado resultado, incluso si estos atributos están conectados entre sí. Un modelo Naive Bayesian es simple de construir y efectivo para grandes conjuntos de datos.
Se sabe que funciona mejor que incluso las técnicas de categorización más complejas y, al mismo tiempo, es básico. Es una colección de algoritmos que se basan en el Teorema de Bayes, en lugar de un solo método.
6. K-vecinos más cercanos
La técnica de K-vecinos más cercanos (kNN) es un subconjunto de aprendizaje automático supervisado que se puede usar para abordar problemas de clasificación y regresión. El algoritmo KNN supone que se pueden encontrar objetos comparables cerca.
Lo recuerdo como una reunión de personas de ideas afines. kNN aprovecha la idea de la semejanza entre otros puntos de datos utilizando la proximidad, la cercanía o la distancia. Para etiquetar los datos invisibles en función de los puntos de datos observables etiquetados más cercanos, se emplea un método matemático para determinar la separación entre puntos en un gráfico.
Debe determinar la distancia entre los puntos de datos para identificar los puntos comparables más cercanos. Para ello se pueden utilizar medidas de distancia como la distancia euclidiana, la distancia de Hamming, la distancia de Manhattan y la distancia de Minkowski. El K se conoce como el número vecino más cercano y, a menudo, es un número impar.
KNN se puede aplicar a problemas de clasificación y regresión. La predicción realizada cuando se utiliza KNN para problemas de regresión se basa en la media o mediana de las K ocurrencias más similares.
El resultado de un algoritmo de clasificación basado en KNN puede determinarse como la clase con mayor frecuencia entre las K ocurrencias más similares. Básicamente, cada instancia emite un voto para su clase, y la predicción pertenece a la clase que recibe la mayor cantidad de votos.
7. K-medias
Es una técnica para el aprendizaje no supervisado que aborda problemas de agrupación. Los conjuntos de datos se dividen en un cierto número de grupos, llamémoslo K, de tal manera que los puntos de datos de cada grupo son homogéneos y distintos de los de los otros grupos.
Metodología de agrupamiento de K-medias:
- Para cada grupo, el algoritmo de K-medias selecciona k centroides o puntos.
- Con los centroides o grupos K más cercanos, cada punto de datos forma un grupo.
- Ahora, se producen nuevos centroides dependiendo de los miembros del grupo ya presentes.
- La distancia más cercana para cada punto de datos se calcula utilizando estos centroides actualizados. Hasta que los centroides no cambien, este proceso se repite.
Es más rápido, más confiable y más simple de comprender. Si hay problemas, la adaptabilidad de k-means simplifica los ajustes. Cuando los conjuntos de datos son distintos o están bien aislados entre sí, los resultados son mejores. No puede gestionar datos erráticos o valores atípicos.
8. Máquinas de vectores de soporte
Cuando se usa la técnica SVM para clasificar datos, los datos sin procesar se muestran como puntos en un espacio n-dimensional (donde n es la cantidad de características que tiene). Luego, los datos se pueden clasificar fácilmente porque el valor de cada característica se conecta a una coordenada específica.
Para separar los datos y ponerlos en un gráfico, emplee líneas conocidas como clasificadores. Este enfoque traza cada punto de datos como un punto en un espacio n-dimensional, donde n es el número de características que tiene y el valor de cada característica es un valor de coordenadas específico.
Ahora ubicaremos una línea que divide los datos en dos conjuntos de datos que han sido categorizados de manera diferente. Las distancias desde los puntos más cercanos en cada uno de los dos grupos serán las más alejadas a lo largo de esta línea.
Dado que los dos puntos más cercanos son los que están más alejados de la línea del ejemplo anterior, la línea que divide los datos en los dos grupos que se clasificaron de manera diferente es la línea media. Nuestro clasificador es esta línea.
9. Reducción de dimensionalidad
Usando el enfoque de reducción de dimensionalidad, los datos de entrenamiento pueden tener menos variables de entrada. En términos simples, se refiere al proceso de reducir el tamaño de su conjunto de características. Imaginemos que su conjunto de datos tiene 100 columnas; la reducción de dimensionalidad disminuirá esa cantidad a 20 columnas.
El modelo se vuelve automáticamente más sofisticado y tiene un mayor riesgo de sobreajuste a medida que aumenta la cantidad de funciones. El mayor problema de trabajar con datos en dimensiones más grandes es lo que se conoce como la "maldición de la dimensionalidad", que ocurre cuando los datos contienen una cantidad excesiva de características.
Los siguientes elementos se pueden utilizar para lograr la reducción de la dimensionalidad:
- Para encontrar y elegir las características pertinentes, se emplea la selección de características.
- Usando características ya existentes, la ingeniería de características crea manualmente nuevas características.
Conclusión
El aprendizaje automático supervisado o no supervisado es posible. Elija el aprendizaje supervisado si sus datos son menos abundantes y están bien etiquetados para el entrenamiento.
Grandes conjuntos de datos a menudo se desempeñarían y producirían mejores resultados utilizando el aprendizaje no supervisado. Aprendizaje profundo Los métodos son mejores si tiene una recopilación de datos considerable que esté fácilmente disponible.
Aprendizaje reforzado y el aprendizaje de refuerzo profundo son algunos de los temas que estudió. Las características, usos y restricciones de las redes neuronales ahora son claras para usted. Por último, pero no menos importante, consideró las opciones para diferentes lenguajes de programación, IDE y plataformas a la hora de crear el suyo propio. modelos de aprendizaje automático.
Lo siguiente que debe hacer es comenzar a estudiar y usar cada máquina de aprendizaje Acercarse. Incluso si el tema es amplio, cualquier tema se puede entender en unas pocas horas si te enfocas en su profundidad. Cada tema está aislado de los demás.
Debe pensar en un problema a la vez, estudiarlo, ponerlo en práctica y usar un lenguaje de su elección para implementar los algoritmos en él.
Deje un comentario