Introducción a la Computación: Conceptos, Historia y Aplicaciones

Clasificado en Informática

Escrito el en español con un tamaño de 10,95 KB

Introducción a la Computación

¿Qué es la Computación?

La computación abarca todas las actividades que involucran el uso de computadoras. Esto incluye el diseño de sistemas de hardware y software, el procesamiento, la estructuración y el manejo de información, la realización de estudios científicos, el desarrollo de sistemas de cómputo inteligentes, la creación de contenido para comunicación y entretenimiento, y la búsqueda y recolección de información.

Definición de Computadora

Una computadora es una máquina que manipula datos de acuerdo con un conjunto de instrucciones llamado programa. El proceso se puede visualizar como: input -> computadora -> output (procesador de datos).

Perfiles Profesionales en Computación

  • Ciencia de la Computación: Estudia sistemáticamente los procesos algorítmicos que describen y transforman la información. Se enfoca en diseñar e implementar software, proponer nuevas maneras de usar computadoras y desarrollar formas efectivas de resolver problemas de computación.
  • Ingeniería en Computación: Se centra en el diseño y la construcción de computadoras y dispositivos/sistemas basados en computadoras, incluyendo sistemas embebidos.
  • Ingeniería de Software: Se dedica al desarrollo y mantenimiento de sistemas de software confiables, seguros y eficientes, combinando principios de ingeniería y ciencia de la computación.
  • Sistemas de Información: Se enfoca en la integración de soluciones de tecnologías de la información (TI) con los procesos de negocios. Busca ayudar a las empresas a alcanzar sus objetivos mediante el uso eficiente y efectivo de herramientas de TI.
  • Tecnología de la Información: Forma recursos humanos con conocimientos teóricos y prácticos para administrar la infraestructura de TI de una organización. Esto incluye seleccionar hardware y software, integrarlos con las necesidades organizacionales, e instalar, personalizar y mantener las aplicaciones para el uso efectivo de los usuarios.

Modelos Teóricos de la Computación

Modelo de Turing

En 1937, Alan Turing describió la idea de un dispositivo computacional universal, conocido como la Máquina de Turing. Este modelo abstracto demostró que todos los cálculos podían realizarse en una sola máquina, formalizando las acciones que se realizan durante un cálculo.

Modelo de Von Neumann

Entre 1944 y 1945, John von Neumann propuso un modelo para los ordenadores que almacenan datos en su memoria. La principal innovación fue que tanto los programas como los datos se almacenan en la memoria en el mismo formato (patrones binarios). Este modelo se compone de cuatro subsistemas: memoria, unidad aritmético-lógica (ALU), unidad de control y entrada/salida (I/O).

Ejecución Secuencial de Instrucciones

En el modelo de Von Neumann, un programa consiste en un número finito de instrucciones. La unidad de control retira una instrucción de la memoria, la decodifica y la ejecuta. Las instrucciones se ejecutan una tras otra, aunque actualmente es posible el procesamiento paralelo.

Componentes de una Computadora

Hardware

El hardware de una computadora, en el marco del modelo de Von Neumann, tiene cuatro componentes principales, aunque puede haber diferentes tipos de memoria, subsistemas de entrada/salida, etc.

Datos

En el modelo de Von Neumann, una computadora se define como una máquina de procesamiento de datos que acepta datos de entrada, los procesa y envía el resultado como salida.

Software

La característica principal de los modelos de Turing y Von Neumann es el concepto de programa. Aunque las primeras computadoras no guardaban el programa en la memoria, sí utilizaban este concepto. La programación de las primeras computadoras implicaba cambiar los sistemas de cableado o trabajar con interruptores en serie de encendido/apagado, una tarea realizada por un operador o ingeniero antes del procesamiento de datos.

Historia de la Computación

Máquinas Mecánicas (Antes de 1930)

Las primeras máquinas mecánicas poco se parecen a las computadoras actuales. En el siglo XVII, Blaise Pascal inventó la Pascalina. A finales del siglo XVII, Gottfried Leibniz inventó la Rueda de Leibniz. En el siglo XIX, Joseph Marie Jacquard creó el Telar de Jacquard, la primera máquina que usaba ideas de almacenamiento y programación. En 1823, Charles Babbage inventó la Máquina Diferencial y luego la Máquina Analítica, que se asemejaba a las computadoras modernas. En 1890, Herman Hollerith construyó una máquina programadora que leía, contaba y ordenaba automáticamente datos de tarjetas perforadas para el Censo de los Estados Unidos.

Nacimiento de las Computadoras Electrónicas (1930-1950)

Los equipos creados en esta época fueron pioneros en la industria de la computación electrónica. Las primeras computadoras no guardaban el programa en la memoria (se programaban externamente), como la ABC, Z1, Mark I, Colossus y ENIAC. El primer ordenador basado en la idea de Von Neumann fue el EDVAC, construido en 1950 en la Universidad de Pensilvania. Al mismo tiempo, Maurice Wilkes construyó el EDSAC en la Universidad de Cambridge, Inglaterra.

Generaciones de Computadoras (1950-Presente)

Las computadoras modernas siguen el modelo de Von Neumann, pero son más rápidas, pequeñas y baratas. Se dividen en generaciones, con cambios en hardware y software, pero no en el modelo fundamental.

  • Primera Generación (1950-1959): Aparición de equipos comerciales.
  • Segunda Generación (1959-1965): Uso de transistores en lugar de tubos de vacío y lenguajes de programación de alto nivel como FORTRAN y COBOL.
  • Tercera Generación (1965-1975): Invención del circuito integrado, aparición de minicomputadoras y disponibilidad de paquetes de software.
  • Cuarta Generación (1975-1985): Aparición de microordenadores, como la Altair 8800, y surgimiento de las redes de computadoras.
  • Quinta Generación (1985-Presente): Aparición de computadoras portátiles (laptop) y de bolsillo (palmtop), mejoras en los medios de almacenamiento secundario (CD, DVD, etc.), uso de multimedia y realidad virtual.

Asuntos Sociales y Éticos

Aspectos Sociales

  • Dependencia: La dependencia excesiva de la tecnología puede dificultar la vida cotidiana.
  • Justicia Social: El acceso a computadoras e internet no es universal, creando una brecha entre quienes pueden permitírselo y quienes no.
  • Brecha Digital: Divide a la sociedad entre los que están conectados electrónicamente y los que no.

Aspectos Éticos

  • Privacidad: La comunicación electrónica no siempre es privada, y garantizar la privacidad puede ser complicado y costoso.
  • Derechos de Autor: Protección de los derechos de autor en el ámbito digital.
  • Delitos Informáticos: Incluyen el acceso no autorizado a computadoras, el robo de información y la creación de virus, lo que ha llevado a un gasto significativo en software antivirus.

Sistemas de Números

Un número puede ser representado por diferentes sistemas numéricos.

Sistemas Posicionales

En los sistemas posicionales, la posición que ocupa un símbolo en el número determina su valor. La base o radix define el conjunto de símbolos utilizados.

  • Binario: Base 2, Símbolos: {0, 1}
  • Octal: Base 8, Símbolos: {0, 1, 2, 3, 4, 5, 6, 7}
  • Decimal: Base 10, Símbolos: {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}
  • Hexadecimal: Base 16, Símbolos: {0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F}

Sistemas No Posicionales

En los sistemas no posicionales, la posición de un símbolo no afecta su valor. Cada símbolo tiene un valor fijo (por ejemplo, los números romanos).

Almacenamiento de Datos

Representación de Números Enteros

  • Sin Signo (Unsigned): Convertir a binario y añadir ceros para completar el número de bits.
  • Magnitud y Signo (Sign-and-Magnitude): El primer bit indica el signo (0 para positivo, 1 para negativo). Convertir el valor absoluto a binario y añadir ceros para completar n-1 bits.
  • Complemento a Uno (One's Complement): Para números negativos, invertir todos los bits del valor absoluto.
  • Complemento a Dos (Two's Complement): Para números negativos, copiar los bits desde la derecha hasta encontrar un 1, luego invertir los bits restantes.

Representación de Punto Flotante

La representación de punto flotante es la notación científica para los números binarios. Se compone de un signo, un exponente (shifter) y un número de punto fijo (mantisa). Se utiliza la normalización para estandarizar la representación.

Sistema de Exceso

El sistema de exceso, también conocido como sesgo, se utiliza para representar el exponente en la notación de punto flotante. El sesgo se calcula como 2^(número de bits del exponente - 1) - 1.

Ejemplo (SEM):

  • S: Signo (0 para positivo, 1 para negativo)
  • E: Exponente = shifter + exceso (convertir a binario)
  • M: Mantisa = lo que está después del punto en la normalización, completando con ceros a la derecha hasta alcanzar el número de bits especificado.

Texto

El texto se representa como una entidad contable de caracteres. En inglés, se utilizan 26 símbolos para letras (mayúsculas y minúsculas), 10 para números y otros símbolos.

Audio

El audio es un dato analógico que se digitaliza mediante el muestreo. Se graba la señal de audio a intervalos regulares, obteniendo un número finito de muestras. La cuantización asigna un valor a cada muestra. La codificación determina la tasa de bits (bit rate): R = B * S, donde B es el número de bits por muestra y S es el número de muestras por segundo.

Imagen

Las imágenes se representan mediante gráficos de mapa de bits (raster graphics). Una foto es un dato analógico donde la intensidad (color) varía en el espacio. El muestreo se llama digitalización (scanning), y las muestras se denominan píxeles. La resolución es la tasa de escaneo. La profundidad de color determina la cantidad de colores que se pueden representar.

Entradas relacionadas: