x
1

Información



Información es el nombre por el que se conoce un conjunto organizado de datos procesados que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje. Existen diversos enfoques para el estudio de la información:

Los datos sensoriales una vez percibidos y procesados constituyen una información que cambia el estado de conocimiento, eso permite a los individuos o sistemas que poseen dicho estado nuevo de conocimiento tomar decisiones pertinentes acordes a dicho conocimiento.

Desde el punto de vista de la ciencia de la computación, la información, es un conocimiento explícito extraído por seres vivos o sistemas expertos como resultado de interacción con el entorno o percepciones sensibles del mismo entorno. En principio la información, a diferencia de los datos o las percepciones sensibles, tienen estructura útil que modificará las sucesivas interacciones del que posee dicha información con su entorno.

La palabra «información» deriva del sustantivo latino informatio(-nis) (del verbo informare, con el significado de «dar forma a la mente», «disciplinar», «instruir», «enseñar»). Ya en latín la palabra informationis era usada para indicar un «concepto» o una «idea», pero no está claro si tal palabra pudiera haber influido en el desarrollo moderno de la palabra «información».

Por otra parte la palabra griega correspondiente era μορφή (morfè, de la que por metatesis surgió la palabra latina «forma»), o si no εἶδος (éidos, de la cual deriva la latina «idea»), esto es: «idea», «concepto» o «forma», «imagen»; la segunda palabra fue notoriamente usada técnicamente en el ámbito filosófico por Platón y Aristóteles para indicar la identidad ideal o esencia de algo (véase Teoría de las ideas). Eidos se puede también asociar a «pensamiento», «aserción» o «concepto».[1]

En las sociedades humanas y en parte en algunas sociedades animales, la información tiene un impacto en las relaciones entre diferentes individuos. En una sociedad la conducta de cada individuo frente a algunos otros individuos se puede ver alterada en función de qué información disponible posee el primer individuo. Por esa razón, el estudio social de la información se refiere a los aspectos relacionados con la variación de la conducta en posesión de diferentes informaciones.

Para Gilles Deleuze, la información social es un sistema de control, en tanto que es la propagación de consignas que deberíamos de creer o hacer que creemos. En tal sentido la información es un conjunto organizado de datos capaz de cambiar el estado de conocimiento en el sentido de las consignas transmitidas.

En general la información tiene una estructura interna y puede ser calificada según varias características:

La historia de la información está asociada a su producción, tratamiento y transmisión. Una cronología de esa historia detallada puede ser:

Se considera que la generación y/u obtención de información persigue estos objetivos:

En relación con el tercer punto, la información como vía para llegar al conocimiento, debe ser elaborada para hacerla utilizable o disponible (este proceso empírico se llama Documentación y tiene métodos y herramientas propios), pero también es imposible que la información por sí sola dote al individuo de más conocimiento, es él quien valora lo significativo de la información, la organiza y la convierte en conocimiento. El dato, por así llamarlo, es en sí un «prefijo» de la información, es decir, es un elemento previo necesario para poder obtener la información.

Una noticia es el relato o redacción de un texto informativo que se quiere dar a conocer con sus propias reglas de construcción (enunciación) que se refiere a un hecho novedoso o atípico -o la relación entre hechos novedosos y/o atípicos-, ocurrido dentro de una comunidad o determinado ámbito específico, que hace que merezca su divulgación.

El control y la manipulación es uno de los medios más poderosos de los gobiernos para promover el acatamiento de sus políticas. Así, los estados totalitarios y autoritarios buscan el monopolio de la información para promover el acatamiento de las políticas. La información tiene por objetivo dar a conocer los hechos de manera efectiva e imparcial, mientras que la propaganda busca ganar adeptos para lograr un objetivo, sin importarle la veracidad de los hechos. Así la propaganda compite con el derecho como instrumento de poder.[10]

El enfoque de la teoría de la información analiza la estructura matemática y estadística de los mensajes, con independencia de su significado u otros aspectos semánticos. Los aspectos en los que se interesa la teoría de la información son la capacidad de transmisión de los canales, la compresión de datos o la detección y corrección de errores.

Una forma de caracterizar nuestro estado de conocimiento del mundo, es a través de las probabilidades. Si sabemos que en el futuro pueden suceder n cosas diferentes , cada una con probabilidad ese conjunto de probabilidades constituyen nuestro conocimiento del mundo, una información debería reducir nuestra incertidumbre, variando las probabilidades a . Si el segundo estado tiene menos incertidumbre es porque algunas cosas se han hecho más probables frente a otras alternativas que se han hecho menos probables.

Una forma de «medir la información» asociada a un mensaje o hecho observado es calcular como algunas probabilidades han crecido y otras han decrecido. Una medida conveniente de calcular la «concentración» de la certeza en algunas alternativas es la entropía estadística:[11]

Un ejemplo lingüístico ilustra bien este caso. Supongamos que nos proponen adivinar la segunda letra de una palabra del español. y nos dicen que en la segunda posición podría aparecer cualquier letra del alfabeto. Por tanto la incertidumbre inicial se obtiene calculando la probabilidad de ocurrencia de cada letra y calculando:

Sin embargo, si nos dan como pista que «la primera letra es una Z», entonces en segunda posición solo puede aparecer A, O, U (aunque existen un puñado de casos excepcionales de E e I) y por tanto con esa información se reduce mucha la incertidumbre:

La información cuantificada de la pista «la primera letra es una Z» resulta ser:

Las unidades de información resultan ser bits puesto que se han empleado logaritmos de base 2. Si la pista hubiera sido «la primera letra es una M», la segunda letra solo podría ser A, E, I, O, U que es un conjunto más amplio y en este caso y en este caso, la pista lleva menos información porque reduce menos la incertidumbre, el resultado en este caso es repitiendo los pasos anteriores de unos 2,50 bits.

Surgen cuatro operaciones básicas sobre la información, estos son los pilares sobre los cuáles, al igual que las cuatro operaciones básicas de matemáticas (+ - x %) se pueden construir varios cuatrimestres de estudio Universitario. Estos son:

Sobre estas cuatro operaciones, tanto en su almacenamiento como en tránsito es que se construyen todas las operaciones complejas y desarrollos de software. Cabe mencionar también que son la base de cualquier tipo de ataque informático o Ciberataque [12]​.

La cantidad de información y el conocimiento desarrollado, aparentemente es enorme y tiene una metodología de recuperación, que eventualmente es infinita o total en un número muy amplio de soportes y sitios y el modelo sistémico de recuperación debe maximizar la búsqueda para asegurar su captura lo más completa posible dentro del entorno de este sistema complejo. En el caso de búsquedas en Internet y usando dos o más descriptores, los resultados numéricos que dan los motores de búsqueda, que contengan los dos o más términos juntos o muy próximos, ya es una medida de la cantidad de información conseguida y que es en expresión matemática el ln o logaritmo natural de la suma de las interacciones validadas. Valores de 2 o 3 serán óptimos.

En física existe una íntima conexión entre entropía e información:

Léon Brillouin publicó en 1959 Science et théorie de l'information (versión en inglés editada por vez primera en 1962) donde son examinadas las relaciones entre estas dos disciplinas. Adopta particularmente un punto de vista de físico y hace el lazo entra la entropía informacional de Shannon y la entropía estadística de Boltzmann en donde se arriesga que la información (y con la misma el lenguaje) es un factor neguentrópico es decir por el cual se puede anular la entropía.

Para empezar, es necesario entender que, en el caso de la información analógica, los datos se traducen en forma de impulsos eléctricos, de manera que el flujo de información es constante y únicamente va variando de amplitud.

En cambio, la información digital es aquella cuya codificación se reduce a dos valores: 0 y 1; es decir, se traduce al sistema binario.[13]​ Todo este tipo de información, independientemente de que estemos hablando de música, imágenes, textos, etc, tiene la misma naturaleza.

Veamos las diferencias y por tanto, desventajas y ventajas que tiene un sistema u otro.

En primer lugar, la información digital, al estar codificada con el mismo código independientemente del formato, puede ser transmitida o copiada infinitas veces sin padecer daños o perdidas, debido a que simplemente debe ser reconstruida por el software oportuno —se trata únicamente de números—. En cambio, la información analógica no es tan precisa; esta pierde calidad en ser copiada.[14]

Otra de las desventajas que tiene la información analógica es que ocupa un espacio físico, es estática y su conservación puede ser difícil con el paso de los años. Sin embargo, la información digital no ocupa ningún lugar físico, sino que se encuentra dentro de dispositivos capaces de leerla como un ordenador. Además, son datos que tienen la capacidad de fluir con gran facilidad y su conservación es completamente posible durante muchísimo tiempo; no se deteriora —aunque el medio que la almacena sí que puede echarse a perder—. De hecho, si no son destruidos a conciencia, perduran para siempre.[15]

Otra diferencia entre los dos tipos de información está en la facilidad o dificultad para compartirla. Es decir, la información analógica es más difícil de difundir. La ventaja de esto es que es mucho más fácil de controlar. En cambio, la digital, al ser tan fácil de compartir hoy en día —vía Internet, etc—, también es muy difícil impedir que circule una vez ha empezado a hacerlo; nuestro control sobre esta es mucho menor.[16]

Además, la información digital se procesa de manera muy rápida por dispositivos como ordenadores o discos duros de manera que esto facilita el tratamiento de la información. Esta información, debido a la naturaleza común de todos los formatos, puede combinar texto, imagen, vídeo, etc., en un mismo archivo.[13]



English Version / Versión en Inglés > Information


Escribe un comentario o lo que quieras sobre Información (directo, no tienes que registrarte)


Comentarios
(de más nuevos a más antiguos)


Aún no hay comentarios, ¡deja el primero!