Complejidad Computacional y Redes Neuronales Artificiales: Conceptos Clave

Clasificado en Informática

Escrito el en español con un tamaño de 3,29 KB

Complejidad Computacional

La complejidad computacional considera globalmente todos los posibles algoritmos para resolver un problema dado. Estamos interesados en la distinción que existe entre los problemas que pueden ser resueltos por un algoritmo en tiempo polinómico y los problemas para los cuales no conocemos ningún algoritmo polinómico, es decir, el mejor es no-polinómico.

Problemas NP-Completos

La definición formal de NP-Completo usa reducciones o transformaciones de un problema a otro.

Así, tenemos que los siguientes problemas son NP-Completos: rutas y circuitos de Hamilton, asignación de trabajos con penalizaciones, el agente viajero, el problema de la mochila.

Problemas Intratables

Un problema se dice intratable si es muy difícil que un algoritmo de tiempo no polinomial lo resuelva.

La comunidad computacional acepta que un buen algoritmo es aquel para el cual existe un algoritmo polinomial determinístico que lo resuelva.

Algoritmos No Determinísticos

Dos fases:

  • No Determinística: Alguna cadena de caracteres, s, completamente arbitraria es escrita a partir de algún lugar de memoria designado. Cada vez que el algoritmo corre, la cadena escrita puede diferir.
  • Determinística: Un algoritmo determinístico (es decir, ordinario) es ejecutado. Además de la entrada del problema de decisión, el algoritmo puede leer s, o puede ignorarla. Eventualmente, este para con una salida de sí o no, o puede entrar en un ciclo infinito y nunca parar.

El número de pasos llevados a cabo durante la ejecución de un algoritmo no determinístico es definido como la suma de los pasos en ambas fases; esto es, el número de pasos tomados para escribir s (simplemente el número de caracteres en s) más el número de pasos ejecutados por la segunda fase determinística.

Redes Neuronales Artificiales

Tipo de sinapsis: excitatoria, inhibitoria.

Neurona Artificial

Autómata caracterizado por:

  • Un estado interno
  • Señales de entrada
  • Funciones de activación y transferencia

Tipos de neuronas:

  • Producto punto
  • Distancia

Aprendizaje

Capacidad de una neurona (o red neuronal) para ajustar las conexiones (pesos) de modo de obtener una respuesta deseada o que satisfaga ciertos criterios.

Regla de Hebb

Cuando una neurona i repetida y persistentemente excita a una neurona j, algún proceso de crecimiento o metabólico se produce en una o ambas neuronas de modo que la eficiencia de excitación de i sobre j aumenta.

Redes Neuronales Artificiales (RNA)

Consisten en un conjunto de neuronas interconectadas entre sí.

Quedan completamente caracterizadas por:

  • Número de neuronas
  • Arquitectura de interconexión
  • Valor de los pesos
  • Funciones de activación y transferencia

Las RNA pueden trabajar de dos modos:

  • Aprendizaje:
    • Supervisado (vía ejemplos)
    • No supervisado
  • Reconocimiento o simulación: Se usa la RNA para procesar información.

Entradas relacionadas: