Entrada

Inferencia Estadística

Proceso de extraer conclusiones o hacer predicciones sobre una población basándose en muestras de datos observados. Esto implica estimar parámetros desconocidos, probar hipótesis y hacer predicciones utilizando métodos estadísticos. La inferencia estadística juega un papel fundamental en el análisis de datos y la toma de decisiones basada en evidencia
en una amplia gama de disciplinas.

Entrada

Inception Network

Arquitectura de red neuronal profunda
diseñada para mejorar la eficiencia
computacional y el rendimiento en
tareas de visión por computadora,
como la clasificación de imágenes.
Esta arquitectura utiliza módulos de
convolución múltiple con diferentes
tamaños de filtro en paralelo para
capturar características a diferentes
escalas. La Inception Network ha sido
utilizada con éxito en competiciones de
reconocimiento de imágenes, como el
desafío ImageNet.

Entrada

Imbalanced Dataset

Conjunto de datos desbalanceado
es aquel donde las clases tienen
cantidades significativamente
diferentes de ejemplos. Esto puede
ocurrir en situaciones donde una clase
es mucho más común que otras, lo que
puede sesgar el rendimiento del modelo
hacia la clase dominante. Manejar
conjuntos de datos desbalanceados es
importante en el aprendizaje automático
para evitar que el modelo ignore las
clases minoritarias y tome decisiones
sesgadas.

Entrada

IA Débil / IA Fuerte

Se refiere a sistemas de IA diseñados
para realizar tareas específicas dentro
de un dominio limitado, mientras que
la inteligencia artificial fuerte se refiere
a sistemas de IA con la capacidad de
razonar, aprender y resolver problemas
en múltiples dominios de manera similar
a los humanos. La IA débil está más
enfocada en tareas específicas y no
busca replicar la inteligencia humana en
su totalidad, mientras que la IA fuerte
aspira a alcanzar o superar el nivel
de inteligencia humana en todas sus
formas.

Entrada

Hiperparámetro

Parámetro que se configura antes del entrenamiento del modelo y afecta el proceso de aprendizaje, pero no se aprende automáticamente del conjunto de datos. Los hiperparámetros controlan aspectos como la complejidad del modelo, la velocidad de aprendizaje y la regularización. Algunos ejemplos comunes de hiperparámetros incluyen la tasa de aprendizaje en redes neuronales, el número de árboles en un modelo de bosque aleatorio y el valor de K en el algoritmo de vecinos más cercanos (K-nearest Neighboors)

Entrada

Hierarchical Clustering (Agrupamiento Jerárquico)

Método de agrupamiento que crea jerarquías de clústeres. En este enfoque, los datos se agrupan en función de su similitud, y los clústeres se organizan en una estructura de árbol o dendrograma. Hay dos tipos principales de agrupamiento jerárquico: aglomerativo, donde cada observación comienza en su propio clúster y se fusionan gradualmente, y divisivo, donde todos los datos comienzan en un solo clúster y se dividen en clústeres más pequeños. Este enfoque es útil para explorar la estructura de los datos y visualizar relaciones de similitud entre observaciones.

Entrada

Heurística

Regla práctica o método de solución de problemas que no garantiza una solución óptima, pero que a menudo es efectiva en la práctica. En el contexto de la inteligencia artificial, las heurísticas se utilizan en algoritmos de búsqueda y optimización para guiar la exploración del espacio de soluciones en busca de una solución satisfactoria en un tiempo razonable. Las heurísticas son particularmente útiles en problemas complejos donde encontrar una solución óptima es computacionalmente costoso o impracticable.

Entrada

Hadoop

Marco de software de código abierto utilizado para el procesamiento y almacenamiento distribuido de grandes conjuntos de datos en clústeres de computadoras. Proporciona una plataforma para el procesamiento paralelo de datos a través de su sistema de archivos distribuido (HDFS) y el marco de procesamiento distribuido MapReduce. Hadoop es ampliamente utilizado en aplicaciones de big data y análisis de datos a gran escala.

Entrada

Gradient Descent

Algoritmo de optimización utilizado para minimizar una función de pérdida en el entrenamiento de modelos de aprendizaje automático. El algoritmo funciona ajustando iterativamente los parámetros del modelo en la dirección opuesta al gradiente de la función de pérdida, lo que permite encontrar los valores óptimos de los parámetros que minimizan la pérdida.