Notas sobre Machine Learning de Stanford
Definiciones de Machine Learning
Arthur Samuel (1959): Campo de estudio que da a las computadoras la habilidad de aprender sin ser explicitamente programada.
Tom Mitchel (1998): Se dice que un programa de computadora aprende de una experiencia E respecto a alguna tarea T y alguna medida de rendimiento P, si el rendimiento de sobre T medido por P mejora con la experiencia E.
Tipos de aprendizaje máquina
- Aprendizaje supervisado
- Aprendizaje no supervisado
- Reforzamiento del aprendizaje
- Sistemas de recomendación
Aprendizaje supervisado
- Necesitan de un conjunto correcto de respuestas
- Problemas de regresión: Predecir un resultado de valor continuo
- Problemas de clasificación: Predecir un resultado de valor discreto.
Aprendizaje no supervisado
- Algoritmos de agrupamiento (Clustering)
- Algoritmo de separación de voces
- Lenguage de prototipado rápido.
Regresión lineal
Notación:
- m = número de ejemplos para el entrenamiento
- y’s = variables de entrada / características
- y’s = variables de salida / variable objetivo
- (x,y) = un ejemplo de entrenamiento
Training set -> Learning algorithm -> h (hypothesis)
- h: x -> y
- How do we represent h?
- A veces
- minimizar
|
Regresión lineal con múltiples variables
Notación
- n = número de características
= entrada de características del
ejemplo de entrenamiento
= valor de la característica j en el
ejemplo de entrenamiento
Hipótesis generalizada
- Anteriormente:
- Ahora:
- Por conveniencia de notación, definimos
- Función de costo
Gradiente descendiente multivariable
- Gradiente descendiente (Actualización simultánea
)
Escalamiento de características.
- Asegurar que las características están en una escala similar.
- Posible solución, ortonormalizar los valores de x
- Normalización por media:
, donde
es el valor promedio para x
en el conjunto de datos, y s
puede ser la diferencia entre max y el min de los valores de tu rango de datos o la desviación estándar de tu conjunto de datos.
Ecuación normal
- En octave
= pinv(X’ * X) * X’ * y
- Gradiente descent vs Normal equation
Gradient descent | Normal equation |
Needs to choose α | No need to choose α |
Needs many iterations | Don’t need to iterate |
Trabaja bien cuando el número de características es grande | Lento si el número de características es grande |
- Needs to choose α | No need to choose α
- Needs many iterations | Don’t need to iterate
- Trabaja bien cuando el número de car
Tikz test
Here’s a tree, exported to both html and pdf.
Otros
node | label | shape | fillcolor |
---|---|---|---|
S_start | start | ellipse | green |
S_fill | fill form | ||
S_send | send form | ||
S_complete | form complete? | diamond | yellow |
S_do | do task | red | |
S_end | end | ellipse |
from | to | label |
---|---|---|
S_start | S_fill | |
S_fill | S_send | |
S_send | S_complete | |
S_complete | S_fill | N |
S_complete | S_do | Y |
S_do | S_end |