La informática,[1] también llamada computación,[2] es el área de la ciencia que se encarga de estudiar la administración de métodos, técnicas y procesos con el fin de almacenar, procesar y transmitir información y datos en formato digital. La informática abarca desde disciplinas teóricas (como algoritmos, teoría de la computación y teoría de la información) hasta disciplinas prácticas (incluido el diseño y la implementación de hardware y software).[3] La informática generalmente se considera un área de investigación académica y distinta de la programación informática.[4]
De esa manera, la informática se refiere al procesamiento automático de información, dispositivos electrónicos, sistemas computacionales.
El término informática también es sinónimo de contar y calcular. En sus inicios, se utilizaba para referirse a la acción realizada por máquinas mecánicas de computación y, antes de eso, a calculadoras humanas.
Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas básicas: entrada (input, captación de la información), procesamiento y salida (transmisión de los resultados).
No existe una definición consensuada sobre el término. Sin embargo, la Asociación de Docentes de Informática y Computación de la República Argentina ha tomado una posición, definiéndola de la siguiente manera: «La informática es la disciplina o campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas referentes al tratamiento automático de la información, junto con sus teorías y aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e información en formato digital utilizando sistemas computacionales. Los datos son la materia prima para que, mediante su proceso, se obtenga como resultado información. Para ello, la informática crea y/o emplea sistemas de procesamiento de datos, que incluyen medios físicos (hardware) en interacción con medios lógicos (software) y las personas que los programan y/o los usan (humanware)».[5]
Es por lo que se hace distinción entre este término y las ciencias de la computación, puesto que el segundo engloba la parte más teórica mientras que informática se refiere a la aplicabilidad de esta anterior en datos usando dispositivos electrónicos. De hecho, se definen cinco subdisciplinas del campo de la informática: ciencias de la computación, ingeniería informática, sistemas de información, tecnología de la información e ingeniería de software.[6]
La informática es la forma científica de procesar la información. Este procesamiento consiste en ordenar, seleccionar, ejecutar cálculos de forma que nos permita extraer conclusiones de la información manipulada. Procesar información es transformar datos primarios en información organizada, significativa y útil, que a su vez está compuesta de datos. La informática, que se ha desarrollado rápidamente a partir de la segunda mitad del siglo XX con la aparición de tecnologías como el circuito integrado, el Internet y el teléfono móvil,[7] es la rama de la tecnología que estudia el tratamiento automático de la información.[8][9]
En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de un documento denominado Informatik: Automatische Informationsverarbeitung (Informática: procesamiento automático de información).[10] El soviético Alexander Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de «estudio, organización y diseminación de la información científica», que sigue siendo su significado en dicha lengua.[10] En inglés, la palabra informatics fue acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando Bauer cofundó la empresa Informatics General, Inc.[10]
La disciplina de la informática es anterior a la creación de las computadoras. Ya en la antigüedad se conocían métodos para realizar cálculos matemáticos, por ejemplo, el algoritmo de Euclides. En el siglo XVII comenzaron a inventarse máquinas calculadoras. La herramienta más antigua conocida para su uso en computación es el ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 a. C. Su diseño original de uso fue por líneas dibujadas en arena con guijarros. Esta fue la primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2000 años.
En el siglo XIX, se desarrollaron las primeras máquinas programables, es decir, que el usuario podría modificar la secuencia de acciones a realizar a través de algoritmos específicos. La primera propuesta registrada para el uso de la electrónica digital en la informática fue el artículo de 1931 «El uso de tiratrones para el conteo automático de fenómenos físicos a alta velocidad» de C. E. Wynn-Williams.[11] El artículo de 1938 de Claude Shannon «Un análisis simbólico de los circuitos de conmutación y relés» introdujo la idea de utilizar la electrónica para las operaciones de álgebra booleana.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William Shockley en Bell Labs, construyó el primer transistor en funcionamiento, el transistor de contacto puntual, en 1947.[12][13] En 1953, la Universidad de Mánchester construyó la primera ordenador transistorizado, llamada ordenador de transistores.[14] Sin embargo, los primeros transistores de unión eran dispositivos relativamente voluminosos que eran difíciles de producir en masa, lo que los limitaba a una serie de aplicaciones especializadas.[15] El transistor de efecto de campo de óxido de metal-silicio (MOSFET, o transistor MOS) fue inventado por Mohamed Atalla y Dawon Kahng en Bell Labs en 1959.[16][17] Fue el primer transistor verdaderamente compacto que podía ser miniaturizado y producido en masa para una amplia gama de usos.[15] El MOSFET hizo posible construir chips de circuitos integrados de alta densidad,[18][19] dando lugar a lo que se conoce como la revolución informática[20] o revolución de la microcomputadora.[21]
En los inicios del procesamiento automático de la información, con la informática solo se facilitaban los trabajos repetitivos y monótonos del área administrativa. La automatización de esos procesos trajo como consecuencia directa una disminución de los costes y un incremento en la productividad. En la informática convergen los fundamentos de las ciencias de la computación, la programación y también las metodologías para el desarrollo de software, la arquitectura de las computadoras, las redes de computadores, la inteligencia artificial y ciertas cuestiones relacionadas con la electrónica. Se puede entender por informática a la unión sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la actividad humana, por ejemplo: gestión de negocios, almacenamiento y consulta de información; monitorización y control de procesos, industria, robótica, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado, aplicaciones/herramientas multimedia, medicina, biología, física, química, meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a nivel gerencial (en una empresa) como permitir el control de procesos críticos. Actualmente, es difícil concebir un área que no esté vinculada o requiera del apoyo de la informática. Esta puede cubrir un enorme abanico de funciones, que van desde las más simples cuestiones domésticas hasta los cálculos científicos más complejos. Entre las funciones principales de la informática se enumeran las siguientes:
Los sistemas computacionales, generalmente implementados como dispositivos electrónicos, permiten el procesamiento automático de la información. Conforme a ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:
En un editor de texto presionando las teclas Alt + el número del código ASCII, aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga las teclas numéricas.
La informática y la computación abarcan una amplia gama de áreas que contribuyen al avance tecnológico y al desarrollo de soluciones innovadoras para resolver problemas complejos. Estas disciplinas se enfocan en diferentes aspectos del procesamiento, almacenamiento, análisis y comunicación de información, desde el diseño de hardware y software hasta el análisis de grandes volúmenes de datos y la inteligencia artificial.
Estudia los fundamentos teóricos y prácticos de la computación, incluyendo algoritmos, estructuras de datos, lenguajes de programación y teoría de autómatas. Es la base para el desarrollo de software, la inteligencia artificial y otros campos.
Se centra en la creación, diseño, implementación y mantenimiento de aplicaciones y sistemas de software. Incluye metodologías de desarrollo como Agile y DevOps, y el uso de lenguajes de programación como Python, Java o C++.
Estudia la conexión y comunicación entre sistemas computacionales, desde redes locales (LAN) hasta redes globales como Internet. Incluye diseño, administración de redes y protocolos como TCP/IP.
Se ocupa de proteger sistemas, redes y datos contra ataques y accesos no autorizados. Incluye áreas como criptografía, análisis forense digital, pruebas de penetración y diseño de sistemas seguros.
Explora cómo crear sistemas que puedan aprender, razonar y tomar decisiones. Incluye aprendizaje automático, procesamiento del lenguaje natural, visión por computadora y robótica.
Se centra en el diseño, implementación y administración de sistemas para almacenar, organizar y acceder eficientemente a grandes volúmenes de datos. Incluye bases relacionales, NoSQL y sistemas distribuidos.
Estudia la generación y manipulación de imágenes y gráficos por computadora. Incluye el desarrollo de videojuegos, animación, simulaciones y tecnologías de realidad aumentada y virtual.
Enfocada en el diseño y uso de servicios de computación que se ofrecen a través de Internet. Incluye almacenamiento, procesamiento y entrega de aplicaciones mediante plataformas como AWS, Azure o Google Cloud.
Estudia el diseño e implementación de sistemas que gestionan los recursos de hardware y proporcionan servicios a las aplicaciones. Ejemplos incluyen Linux, Windows y macOS.
Se ocupa de la aplicación de principios de ingeniería para el desarrollo de sistemas de software robustos y escalables. Incluye análisis de requisitos, diseño de sistemas y pruebas.
Combina computación, mecánica y electrónica para diseñar y programar robots capaces de realizar tareas automatizadas, interactuar con humanos o adaptarse a su entorno.
Área emergente que utiliza principios de la mecánica cuántica para resolver problemas complejos más rápido que las computadoras clásicas, especialmente en criptografía y optimización.
Aplica técnicas computacionales para analizar y modelar datos biológicos, como secuencias genéticas o estructuras proteicas.
Se enfoca en la recolección, análisis y visualización de datos para obtener conocimientos y tomar decisiones informadas. Incluye estadística, aprendizaje automático y minería de datos.
Estudia cómo conectar objetos físicos a Internet para que puedan recopilar y compartir datos. Incluye sensores, dispositivos inteligentes y redes de baja potencia.
Investiga cómo diseñar y coordinar sistemas en los que múltiples computadoras trabajan juntas para resolver un problema. Ejemplo: clústeres y sistemas basados en blockchain.
Aborda cuestiones fundamentales como la complejidad computacional, la teoría de la información y problemas de decidibilidad.
Se enfoca en cómo los humanos interactúan con las computadoras y en diseñar sistemas que sean intuitivos y accesibles.
Estudia el diseño y organización del hardware de los sistemas computacionales, como procesadores, memoria y sistemas de almacenamiento.
Aplica conceptos computacionales para diseñar sistemas que puedan controlar procesos físicos, como en la manufactura o la domótica.
Se ocupa de extraer patrones útiles y conocimiento de grandes conjuntos de datos mediante algoritmos especializados.
Analiza las implicaciones éticas de las tecnologías computacionales, como privacidad, seguridad, sesgos en algoritmos y derechos digitales.