x
1

Detección remota



La teledetección, o detección remota, es la adquisición de información a pequeña o gran escala de un objeto o fenómeno, ya sea usando instrumentos de grabación o instrumentos de escaneo en tiempo real inalámbricos o que no están en contacto directo con el objeto (como por ejemplo aviones, satélites, astronave, boyas o barcos). En la práctica, la teledetección consiste en recoger información a través de diferentes dispositivos de un objeto concreto o un área. Por ejemplo, la observación terrestre o los satélites meteorológicos, las boyas oceánicas y atmosféricas, las imágenes por resonancia magnética (MRI en inglés), la tomografía por emisión de positrones (PET en inglés), los rayos-X y las sondas espaciales son todos ejemplos de teledetección. Actualmente, el término se refiere de manera puntual al uso de tecnologías de sensores para adquisición de imágenes, incluyendo: instrumentos a bordo de satélites o aerotransportados, usos en electrofisiología, y difiere en otros campos relacionados con imágenes como por ejemplo en imagen médica.

Hay dos clases de teledetección principalmente: teledetección pasiva y teledetección activa:

La teledetección hace posible recoger información de áreas peligrosas o inaccesibles. Algunas aplicaciones pueden ser monitorizar una deforestación en áreas como la cuenca del Amazonas, el efecto del cambio climático en los glaciares y en el Ártico y en el Antártico, y el sondeo en profundidad de las fallas oceánicas y las costas. El colectivo militar, durante la Guerra Fría, hizo uso de esta técnica para recoger información sobre fronteras potencialmente peligrosas. La teledetección remota también reemplaza la lenta y costosa recogida de información sobre el terreno, asegurando además que en el proceso las zonas u objetos analizados no se vean alterados.

Las plataformas orbitales pueden transmitir información de diversas franjas del espectro electromagnético que en colaboración con sensores aéreos o terrestres y un análisis en conjunto, provee a los investigadores con suficiente información para monitorizar la evolución de fenómenos naturales tales como El Niño. Otros usos engloban áreas como las ciencias de la Tierra, en concreto la gestión de recursos naturales, campos de agricultura en términos de uso y conservación, y seguridad nacional.[1]

La adquisición multi-espectral se basa en la recogida y el análisis de áreas u objetos que emiten o reflejan radiación a un nivel superior al de los objetos circundantes.

Geodesia

Acústica y semi-acústica.

Para coordinar una serie de observaciones a gran escala, la mayor parte de los sistemas de detección dependen de: la localización de la plataforma, la hora, la rotación y la orientación del sensor. Los instrumentos más actuales usan normalmente información sobre su posición obtenida de los sistemas de navegación por satélite. La rotación y orientación normalmente la determinan con un error de uno o dos grados mediante compases electrónicos. Estos compases miden no sólo el acimut, sino también la altitud, ya que las líneas del campo magnético terrestre en la Tierra tienen una curvatura diferente según la posición en que te encuentres. Si se desean unas orientaciones más exactas, se requiere de un Sistema de Navegación Inercial el cual periódicamente se realinea usando diferentes técnicas, incluyendo la toma de estrellas como referencia o puntos de referencia importantes.

La resolución tiene un impacto bastante importante en la recogida de información; para entenderlo mejor: una menor resolución conlleva un detalle menor y una cobertura mayor; una mayor resolución conlleva por el contrario un detalle mayor pero una cobertura peor. La capacidad para poder determinar la resolución adecuada en cada momento tiene como consecuencia mejores resultados y además evita el colapso de las unidades de almacenamiento y transmisión (una resolución mayor implica un mayor tamaño).

La teledetección, si hablamos de manera general, trabaja siguiendo el principio del problema inverso. Mientras que el objeto o fenómeno en cuestión (el estado) no se van a medir de manera directa, existen otras variables que se detectan y miden (la observación), que están intrínsecamente relacionadas con el objeto de interés, a través de un modelo creado por ordenador. Una analogía para entender esto es tratar de determinar el tipo de animal por sus pisadas. Así por ejemplo, ya que es imposible medir directamente la temperatura en las capas altas de la atmósfera, sí es posible medir las emisiones de un cierto espectro de especies químicas conocidas (CO2) en esa región. La frecuencia de dicha emisión se puede relacionar con la temperatura de esa zona a través de varias relaciones termodinámicas.

La calidad de la información recogida a distancia depende de sus resoluciones espacial, espectral, radiométrica y temporal.

Resolución espacial

Es el tamaño de un píxel que se guarda en una imagen rasterizada – los píxeles se corresponden con áreas cuadradas cuyo tamaño varía de 1 a 1000 metros.

Resolución espectral

Es la amplitud de la longitud de onda de las diferentes frecuencias grabadas – normalmente, se relaciona con el número de frecuencias que graba la plataforma. La última flota Landsat, "Landsat 8", comprende 11 bandas diferentes incluyendo varias del espectro infrarrojo; en total adquiere desde los 0,43 μm a los 12,51 μm.[3]​ El sensor Hyperion en la “Earth Observing-1” gestiona 220 bandas que van desde los 0,4 μm a los 2,5 μm, con una resolución espectral de 0,10 a 0,11 μm por banda recogida.

Resolución radiométrica

Es la capacidad del sensor para distinguir diferentes intensidades de radiación. Normalmente comprende de 8 a 14 bits, correspondiente a los 256 niveles de una escala de grises, y puede llegar a 16 384 intensidades de color en cada banda. También depende del ruido del aparato.

Resolución temporal

Es la frecuencia con la que el avión o satélite sobrevuelan una zona, y solo tiene importancia en estudios para investigar el efecto del paso el tiempo, como en la monitorización de las deforestaciones. El paso de una nube sobre el área u objeto haría necesario volver a repetir el proceso sobre esa zona.

Para poder crear mapas basados en la información recogida por un sensor, la mayoría de los sistemas de teledetección remota lo que hacen es extrapolar la información extraída por el sensor en relación a un punto de referencia, incluyendo distancias entre los puntos conocidos en el terreno. Todo esto depende del tipo de sensor usado. Por ejemplo, en fotografías corrientes, las distancias son más precisas en el centro de la imagen, las cuales se distorsionan al alejarte del centro de la misma. Otro factor importante es el rodillo contra el que se ponen las fotos, hecho que puede causar graves errores en las fotografías cuando éstas se usan para realizar medidas de distancias. Esto se resuelve mediante la georreferenciación, que engloba ayuda por ordenador para relacionar los puntos en la imagen (30 o más por imagen) que se extrapolan usando un punto de referencia establecido previamente, “transformando” la imagen para producir una información espacial más precisa. A principios de los 90, la mayoría de imágenes por satélite vendidas estaban totalmente georreferenciadas. Aparte de esta corrección, las imágenes pueden necesitar de corrección radiométrica y atmosférica.

Corrección radiométrica

Da una escala de valores por píxel. Por ejemplo, la escala monocromática de 0 a 255 se convertirá a valores de radiación actuales.

Corrección atmosférica

Elimina la “neblina” atmosférica reescalando cada banda de frecuencia a su valor mínimo (cada píxel a 0). La digitalización de la información también hace posible manipular los datos cambiando valores en la escala de grises.

La interpretación es la parte crítica del proceso de hacer la información comprensible. La primera aplicación de eso fue en fotografías aéreas, que usaban el siguiente proceso: medidas espaciales con el uso de una mesa iluminada tanto en cobertura convencional simple como estereográfica. Hacer uso de las dimensiones conocidas de los objetos para detectar modificaciones. El análisis de imagen es una aplicación automatizada por ordenador que se está usando cada día más.

El análisis de objetos basados en imágenes (OBIA en inglés) es una subdisciplina de GIScience dedicada a particionar las imágenes de la teledetección remota en imágenes con significado sobre los objetos, y evaluando sus características en una escala especial, temporal y espectral.

La información antigua obtenida de teledetección remota suele ser valiosa porque provee de información a largo plazo de una gran porción geográfica. Al mismo tiempo, la información a menudo es compleja de interpretar y difícil de almacenar. Los sistemas actuales tienden a almacenar todo digitalmente, normalmente sin pérdida de compresión. Lo difícil de todo esto es que la información es frágil y su formato puede ser arcaico y difícil de interpretar, además de ser fácil de falsificar. Uno de los mejores sistemas para almacenar información es en microfilms. Los microfilms normalmente sobreviven en librerías comunes, con un periodo de vida de varios siglos. Pueden crearse, copiarse, archivarse y recogerse por sistemas automatizados. Son tan compactos como la información almacenada en dispositivos magnéticos y aun pueden ser leídos por el ser humano con un mínimo de equipo adecuado para ello.

Para facilitar el dilema del procesamiento de la información, se definieron varios niveles de procesamiento en 1986 por la NASA como parte de su Sistema de Observación de la Tierra[4]​ se adoptaron tanto en la NASA (por ejemplo,[5]​) como en el resto de lugares (por ejemplo,[6]​). Estas definiciones son:

Guardar la información del Nivel 1 es fundamental (es el nivel más reversible entre otras cosas) ya que tiene un significado científico y una utilidad importante, y es la base de la generación del resto de niveles. El nivel 2 es el primer nivel usable directamente por la mayoría de las aplicaciones científicas; su valor es mucho mayor que la del resto de niveles inferiores. El nivel 2 tiende a ser menos pesado que el nivel 1 ya que sus parámetros han sido reducidos, o bien temporalmente, espacialmente o espectralmente. El nivel 3 ya es bastante más pequeño que el resto y puede ser manipulado sin temor a incurrir en un manejo inadecuado de los datos. Esta información suele ser más general y útil para la mayoría de las aplicaciones. La organización temporal y espacial del nivel 3 hace factible poder combinar información de otras fuentes.

Más allá de los métodos primitivos que usaron nuestros ancestros (subir a un risco o a un árbol para ver el paisaje), la disciplina moderna surgió con la invención del vuelo. G. Tournachon (alias Nadar), un conocido piloto de globos, hizo fotografías de París desde su globo en 1858. También se usaron palomas mensajeras, cometas, cohetes y globos no tripulados para tomar imágenes. Con la excepción de los globos, estas primeras imágenes no fueron muy útiles para hacer mapas o para alguna investigación científica.

La fotografía aérea sistemática se desarrolló por los militares con objeto de la vigilancia y el reconocimiento de territorios en la Primera Guerra Mundial, y llegó a su clímax durante la Guerra Fría con el uso de aviones de combate modificados, como el P-51, el P-38, el RB-66 y el F-4C, o algunas plataformas de recogida de información como por ejemplo el U2/TR-1, el SR-71, el A-5 y el OV-1. Después se desarrollaron los métodos para crear sensores más pequeños que los usados por la ley y los militares, tanto en plataformas tripuladas como no-tripuladas.

La ventaja de esto es que requiere una mínima modificación a un determinado aeroplano. La tecnología de imágenes más posterior incluía infrarrojos, imagen convencional, doppler y radares de apertura sintética.

El desarrollo de satélites artificiales ya en la segunda mitad del siglo XX permitió el uso de la teledetección remota para progresar a escala global y terminar con la Guerra Fría. El instrumental a bordo de varios observadores terrestres y plataformas meteorológicas como el Landsat, el Nimbus y algunas más recientes como el RADARSAT y el UARS proveyeron de medidas globales de información de varios tipos (civil, militar y de investigación). Las sondas espaciales a otros planetas también han brindado la oportunidad de conducir el estudio por teledetección remota a entornos extraterrestres; el radar de apertura sintética a bordo del Magellan proveyó de mapas topográficos detallados de Venus, mientras que los instrumentos a bordo del SOHO permitieron estudios del Sol y los vientos solares.

Las investigaciones recientes incluyen, a principios de las décadas de 1960 y 1970, el desarrollo del procesamiento de imágenes de imágenes satelitales. Varios equipos de investigación en Silicon Valley incluyen el centro de investigación de Ames de la NASA, el GTE y el ESL Inc. desarrollaron técnicas para usar la Transformada de Fourier como manera de mejora de la información de las imágenes.

La introducción de servicios Web en línea para el acceso rápido a información sobre teledetección remota en el siglo XXI (principalmente imágenes de baja o media resolución), como Google Earth, ha hecho posible que la teledetección remota sea algo familiar para el gran público y se haya hecho popular en el mundo de la ciencia.

La información recogida por la teledetección remota es procesada y analizada por programas de ordenador.

Un gran número de aplicaciones de código abierto y otras tantas de pago para procesar esta clase de información. De acuerdo con el estudio NOAA realizado por Global Marketing Insights, Inc., la mayor parte de las aplicaciones entre las academias asiáticas relacionadas con la teledetección remota son: El ESRI con un 30 %, el ERDAS IMAGINE con un 25 %, ITT Visual Información Solutions (ENVI) con un 17 %, MapInfo con un 17 % y ERMapper con un 11 %. Entre las academias occidentales, el estudio constató estos otros porcentajes: ESRI 39 %, ERDAS IMAGINE 27 %, MapInfo 9 %, AutoDesk 7 % y ENVI con un 17 %. Otros paquetes de aplicaciones en relación con la teledetección remota incluyen PCI Gemoatics que desarrolla PCI Geomatica, un paquete de aplicaciones relacionadas con la teledetección remota líder en Canadá, IDRISI de los laboratorios Clark, y el software eCognition de Definiens. Algunas aplicaciones de código abierto son: GRASS GIS, QGIS, ILWIS, Optics, SPRING y Orfeo toolbox.



Escribe un comentario o lo que quieras sobre Detección remota (directo, no tienes que registrarte)


Comentarios
(de más nuevos a más antiguos)


Aún no hay comentarios, ¡deja el primero!