Mostrando las entradas con la etiqueta Información. Mostrar todas las entradas
Mostrando las entradas con la etiqueta Información. Mostrar todas las entradas

lunes, 3 de octubre de 2022

TRANSFORMAR LOS DATOS EN INFORMACION: SU IMPACTO EN LA SALUD


                           TRANSFORMAR LOS DATOS EN INFOMACION                                           

EL IMPACTO INFORMATICO EN SALUD

 

*Autor: Dr. Eduardo Rodas

escrito en el año 1999

 

Al incorporarse la informática, la fenomenología vivida en las organizaciones de salud constituye un proceso de extrema complejidad. Todo impacto de nuevas tecnologías produce resistencias en su implementación, desde las inseguridades por el temor a la pérdida del trabajo hasta la ignorancia en el empleo de las nuevas herramientas. Al redefinir la estructura organizacional del servicio de salud para alcanzar los objetivos de la organización, es necesario tener en cuenta la incorporación del área de informática. Disponiendo de información adecuada sobre determinados hechos, las decisiones podrán efectuarse utilizando el método analítico–deductivo reemplazando las estimaciones y juicios intuitivos tan frecuentes en el área médica.

 

En las organizaciones de salud como parte del sector servicios no ha ocurrido un desempleo masivo como ocurrió por ejemplo con la incorporación de la robótica en el sector industrial. El temor al desconocimiento ha sido encarado con importantes planes de educación continua para preparar a los integrantes de la organización en el manejo de las herramientas informáticas.

 

La información se clasifica según los niveles en que se la utiliza:

 

a) Operativa a nivel de conducción del proceso productivo.

b) Táctica a nivel de conducción del establecimiento de salud.

c) Estratégica a nivel de la conducción del sistema de salud.

 

La información debe adecuarse al nivel en que se la utilizará, por lo cual debe ser cada vez  mas resumida a medida que los niveles superiores de gerenciamiento la van requiriendo.

 

La incorporación de los sistemas distribuidos contribuyen a una Gerencia participativa. El flujo de información omnidireccional que se produce ayuda a que los distintos miembros de la organización posean la información necesaria y suficiente para la toma de decisiones en sus respectivos sectores. De esta forma, la informática distribuida genera y acompaña la dinámica del cambio compartiendo sus modalidades con un gerenciamiento abierto y participativo.

 

La posibilidad de que se generen grupos de trabajo autogerenciados permiten el desarrollo de nuevos equipos que no están contemplados dentro de las estructuras tradicionales de las organizaciones de salud y de esta manera se pueden llevar adelante proyectos que coincidan con los intereses de la organización.

 

Si se analiza el proceso de la atención médica, entendiendo como tal a todas las actividades y acciones que se realizan sobre las personas tanto para prevenir la enfermedad como para recuperar la salud es posible observar un permanente intercambio de datos entre el paciente y quienes lo atienden.

 

Entendemos por dato al conjunto de hechos no estructurado y antecedente necesario para llegar al conocimiento exacto de una cosa. En consecuencia se llevarán a cabo en forma eficaz y eficiente los objetivos de la atención médica.

 

El proceso de la atención médica es esencialmente una transferencia permanente de datos. Desde la entrada del paciente al servicio de salud que requiere datos sobre dónde concurrir:

- Datos que el médico solicita al mismo paciente en su anamnesis.

- Datos que obtiene el mismo médico con instrumentos como el termómetro o el tensiómetro.

- Datos que el profesional solicita al laboratorio.

- Datos que el mismo solicita al servicio de imágenes.

- Datos que requiere a sus colegas a través de la interconsultas o que obtiene de la bibliografía que dispone.

 

Todos estos datos se registran en la historia clínica y son procesados por el médico en base a la información proveniente de sus conocimientos para llegar al diagnóstico e indicar la conducta a seguir.

 

TRANSFORMACION HISTORICA


Poca importancia se daba en épocas remotas a la información en salud. Sólo cuando ocurrían grandes epidemias o catástrofes se mensuraba su impacto debido a la gravedad de las secuelas en muerte y enfermedad que estos hechos producían.

 

En los hospitales de beneficiencia de principios de siglo se practicaba tal como ocurría en el resto del mundo una medicina simple, con baja necesidad de aparatología, con escasos medicamentos y sustentada en un proteccionismo paternal por parte del equipo de salud hacia el paciente.

 

A mediados de la década del ´50 y en las décadas siguientes la medicina moderna sufre cambios revolucionarios con la aparición de la aparatología y de la industria farmacéutica. Ya no es el médico el que diagnostica, cura o alivia con sus sentidos y sus manos, sino que aparece la tecnología basada en la microelectrónica con sus múltiples aplicaciones y avances.

 

Los datos constituyen el input (la entrada) a un sistema de información y esos datos organizados y analizados constituyen el output (la salida) de dicho sistema en el cual se procesan esos datos.

 

Este flujo omnidireccional de datos para ser procesados y transformarse en información es el soporte de las condiciones de Calidad de la atención médica.

 

Si se analiza el proceso de Gestión de los Servicios de Salud como el de una organización de servicios, se observa que los datos son el sustrato principal de la gestión eficaz, esencialmente en cuanto a la utilización de recursos como el personal, los insumos, los instrumentos y los recursos económicos financieros, entre otros, los que luego de su procesamiento se transforman en información.

 

El concepto de interacción del proceso de atención médica y la disponibilidad de recursos constituyen el soporte del proceso productivo de este tipo de organizaciones de servicios. La gestión de la información alcanza un rol protagónico en la gestión de los Servicios de salud.

 

IMPORTANCIA DE LA INFORMACION


La información es un recurso que a igual que el resto de los recursos (humanos, instrumentales, edilicios, etc.) en un sistema de salud debe ser administrado cuidadosamente.

 

Después de los recursos humanos, la información debe ser reconocida como el recurso más importante para quien deba gestionar un servicio de salud.

 

Los sistemas de información actuales proporcionan información de vital importancia a todos los niveles de las organizaciones de salud: desde el nivel operativo del proceso productivo en lo que al control se refiere hasta el máximo nivel de conducción para la planificación.

 

La disponibilidad de información en tiempo y forma permite una eficiente gestión de los recursos disponibles. Frecuentemente el procesamiento computarizado de la información se inicia en forma “desparramada”, es decir que se realiza sin planificación ni organización alguna. En consecuencia, se dificultará en el futuro un procesamiento homogéneo que permita ser compartido y mucho menos integrado en una red única de información.

 

Precisión, confiabilidad, oportunidad, conforman las características y cualidades de la completa información. Un sistema de información para la gestión de un servicio de salud se basa esencialmente en almacenar, ordenar y recuperar los datos en tiempo y forma para permitir una toma adecuada de las decisiones. Los datos constituyen la entrada de un sistema de información y la misma se define como el conjunto de datos interpretados y organizados que tienen sentido o significado para el usuario del sistema y constituye la salida o el producto de dicho sistema.

 

Aquel responsable de la gestión de una organización de salud que no reconozca a la información como el principal insumo/recurso a ser utilizado como el soporte de la decisión adecuada a las necesidades está condenado al fracaso.

 

 

CONOCIMIENTOS DE EFICACIA PROBADA


La gestión de una organización de salud se puede definir como el proceso de distribuir y utilizar los recursos mediante la planificación, la organización, la dirección, la coordinación y el control, con el objetivo de brindar los servicios necesarios a los pacientes cumpliendo con la misión de la organización.

 

La información es el principal insumo para la planificación determinando y definiendo la elaboración de los planes en el corto, mediano y largo plazo para alcanzar los objetivos  de los servicios de salud.

 

En áreas como atención al usuario externo, en las oficinas de Recursos Humanos, Compras, Administración, Laboratorio, Anatomía Patológica, Diagnóstico por Imágenes, el impacto producido tuvo gran repercusión.

 

Cuando se informatizó la oficina donde se otorgan los turnos para la atención en Consultorios Externos se encontraron pacientes con siete números de Historias Clínicas distintos. Actualmente se otorgan en forma automática y se consulta a la base de datos de pacientes. Si éste ya tiene otorgado un número anterior la computadora lo detecta evitando su duplicación.

 

Con la captura de los datos en Admisión de Consultorios Externos, en Admisión de Internación y en la Guardia se logra obtener la información de todo paciente que se interna y se externa de la organización. Consecuentemente, las secretarias ahorran tiempo a la hora de otorgar los turnos.

 

El personal de la Oficina de Compras manifestó que todo el equipo debe adaptarse para trabajar de una determinada manera. Además afirmaron que aumentó la cantidad de producción de trabajo dentro de la oficina. Los expedientes para efectuar las compras que tardaban de 20 a 30 días cuando se realizaban en forma manual, hoy tardan de 24 a 48 horas. En la actualidad el aprendizaje para el personal nuevo resulta mas fácil ya que se adaptan rápidamente, saltan los errores y el trabajo mejoró en relación a la presentación, calidad y cantidad. No existen diferencias entre el presupuesto estimativo y el presupuesto final, y las posibilidades de equivocación son menores.

 

En una entrevista efectuada en la Oficina de Recursos Humanos, su personal expresó: “La computadora mejora la calidad del trabajo, es más prolijo, da una información exacta. Se han mejorado los tiempos de trabajo de manera notable”.

 

EL EQUILIBRIO DEL SISTEMA


Los altos costos en los sistemas de salud, la sobreutilización de los recursos tecnológicos, el abuso de medicación y la falta de un gerenciamiento adecuado han convertido a algunas organizaciones de salud en inviables.

 

La globalización de la economía y los nuevos paradigmas que marcan las conductas en las instituciones de salud hacen necesario que la gestión de la información se implemente en forma rápida y eficiente. La conexión a Internet brinda el acceso a las bases de datos con la información científica mas actualizada del mundo y la posibilidad de incorporar la Telemedicina en beneficio de los pacientes.

 

En muchas organizaciones de salud existen cuantiosas pérdidas por falta de validación de las prestaciones y cuando se realiza frecuentemente el análisis de esta información no se hace en forma sistemática.

 

Hoy existen sistemas informáticos que pueden interactuar con los niveles gerenciales y, mediante estas modernas herramientas, es posible:

- Determinar grupos homogéneos de conductas.

- Identificar prestadores cuyas prácticas de facturación se desvían significativamente de la de sus colegas.

- Analizar las transacciones de los afiliados.

- Efectuar un seguimiento de los prestadores y prevenir nuevos abusos.

- Obtener información sobre el promedio de visitas por paciente, promedio de pacientes por familia, porcentaje de visitas en días feriados, promedio de diagnósticos por paciente, porcentaje de pacientes adolescentes atendidos, porcentaje de pacientes de la tercera edad, promedio del costo por visita, promedio del costo por paciente, promedio de bonos de consulta duplicados, porcentaje de visitas y estudios radiológicos, de laboratorio, de kinesiología, de odontología, etc.

 

La detección de los desvíos se potencia mediante la creación de perfiles basados en modelos matemáticos y se puede contar con herramientas interactivas para el análisis y visualización gráfica de la información.

 

Con la aplicación de estas herramientas de gestión se podrá llegar a la homeostasis del sistema para permitir un desarrollo equilibrado del mismo y posibilitar su equidad, eficacia, eficiencia y calidad.

 

Es frecuente suponer que con el equipamiento (Hardware) y algunos programas (Software) es suficiente para informatizar un establecimiento sanitario y con el tiempo y la experiencia surge el recurso humano (Humanware) como el más importante y la existencia de políticas institucionales y suprainstitucionales o del nivel central como sustento de todo proyecto de desarrollo informático.

 

* El autor es Director del Curso de Extensión Universitaria de Posgrado “Cuidados Informatizados de la Salud” de la Universidad Favaloro. Jefe de Informática Biomédica del Hospital Manuel Belgrano. Consultor en Informática Biomédica.  1999.

jueves, 24 de febrero de 2022

EL FUTURO PODRIA SER MEJOR. FISICA CUANTICA Y SOCIOLOGIA.

 



Un intento para la explicación en la evolución de la informatización de las áreas de Salud que ha ocurrido en nuestro país en la década de los ’90 del siglo pasado y en los años subsiguientes puede realizarse mediante una aproximación de la aplicación de la teoría cuántica a los fenómenos sociológicos.

La teoría cuántica impuso una fatigosa ruptura con el pasado: una ruptura que iba más allá del significado científico y penetraba en el ámbito de la filosofía y quizás también en el del arte, puesto que precisamente en esos mismos años, la pintura pasa del impresionismo al abstractismo, es decir a una progresiva fragmentación y descomposición del universo real.

Según la opinión del científico Rudolf Peierls, ex catedrático de física de la Universidad de Oxford quien considera a la biología como una rama de la física en el mismo sentido que considera a la química como una parte de la física, nuevos aspectos emergen cuando las estructuras llegan a ser suficientemente complejas como lo son los seres vivientes. En este sentido considera que no se habrán completado los fundamentos de la biología hasta que no se haya enriquecido el conocimiento de la física con algunos conceptos innovadores.

“Los Cuantos”

La palabra “cuanto” significa “cantidad” o “porción discreta”. En nuestra escala diaria estamos acostumbrados a la idea de que las propiedades de un objeto, tales como su tamaño, color, peso, temperatura y movimiento son todas ellas cualidades que pueden variar de un modo suave y continuo.

Sin embargo, a escala atómica las cosas son muy diferentes. Las propiedades de las partículas atómicas y subatómicas como su movimiento, energía y el momento angular no siempre presentan variaciones suaves, sino que, por el contrario, pueden variar en cantidades discretas.

Una de las hipótesis de la mecánica clásica era que las propiedades de la materia varían de modo continuo. Cuando los físicos descubrieron que esta noción no es cierta a escala atómica, tuvieron que desarrollar un sistema de mecánica completamente nuevo (la mecánica cuántica) para tener en cuenta al comportamiento atómico de la materia. La teoría cuántica es entonces, la teoría de la que deriva la mecánica cuántica.

Si se tiene en cuenta el éxito de la mecánica clásica en la descripción de la dinámica de toda clase de objetos, desde bolas de billar hasta estrellas y planetas, no es sorprendente que su sustitución por un nuevo sistema mecánico fuera considerada como una desviación revolucionaria. Sin embargo los físicos probaron inmediatamente la validez de la teoría mediante la explicación de un amplio rango de fenómenos que, de otro modo, serían incomprensibles; tanto que la teoría cuántica es frecuentemente citada como la teoría más exitosa jamás creada.

Max Planck
La teoría cuántica tuvo sus orígenes vacilantes en el año 1900, con la publicación de un artículo por el físico alemán Max Planck, quien dirigió su atención a lo que era todavía un problema no resuelto en la física del siglo XIX y que concernía a la distribución entre diversas longitudes de onda de la energía calorífica radiada por un cuerpo caliente. Bajo ciertas condiciones ideales, la energía se distribuye de un modo característico, que Planck demostró podía ser explicado suponiendo que la radiación electromagnética era emitida por el cuerpo en paquetes discretos a los que llamó “quanta”. La razón de este comportamiento espasmódico era desconocida y simplemente tenía que aceptarse  tal como ocurría.

En 1913 Niels Bohr propuso que los elementos atómicos están también “cuantizados”, en el sentido que pueden permanecer en ciertos niveles fijo sin perder energía. Si esto ocurriera en forma continua, los electrones atómicos, que están orbitando en torno al núcleo, perderían 

Niels Bohr

rápidamente energía y caerían siguiendo espirales hacia éste. Por lo tanto, cuando los electrones saltan de un nivel a otro, se absorbe o se emite energía electromagnética en cantidades discretas. Estos paquetes de energía son los fotones.

La razón por la que los electrones habrían de comportarse de este modo discontinuo fue puesta de manifiesto cuando se descubrió la naturaleza ondulatoria de la materia. Los electrones, como los fotones, pueden comportarse como ondas y como partículas, dependiendo de las circunstancias de cada caso. Pronto quedó claro que no sólo los electrones, sino todas las partículas subatómicas están sujetas a un comportamiento similar.

Las leyes tradicionales de la física fracasaban completamente en el micromundo de los átomos y de las partículas subatómicas. 

Hacia la mitad de la década de 1920 la mecánica cuántica había sido desarrollada independientemente por Erwin Schrödinger y Werner Heisenberg para tener en cuenta esta dualidad onda – partícula.

La nueva teoría tuvo un éxito espectacular. Inmediatamente ayudó a los científicos a explicar la estructura de los átomos, la radioactividad, el enlace químico y los detalles de los espectros atómicos (incluyendo los efectos de los campos eléctricos y magnéticos). 

Elaboraciones ulteriores de la teoría por Paul Dirac, Enrico Fermi, Max Born y otros condujeron, con el tiempo, a explicaciones satisfactorias de la estructura y reacciones nucleares, las propiedades eléctricas y térmicas de los sólidos, la superconductividad, la creación y aniquilación de partículas elementales de materia, la predicción de la existencia de antimateria, la estabilidad de ciertas estrellas colapsadas y mucho más. La mecánica cuántica hizo también posible un importante desarrollo en la instrumentación práctica, que incluye al microscopio electrónico, el láser y el transistor.

Enrico Fermi
Experimentos atómicos tremendamente delicados han confirmado la existencia de sutiles efectos cuánticos hasta un asombroso grado de exactitud. Ningún experimento conocido ha contradicho las predicciones de la mecánica cuántica en los últimos cincuenta años.

Este catálogo de triunfos singulariza a la mecánica cuántica como una teoría verdaderamente notable: una teoría que describe correctamente el mundo a un nivel de precisión y detalles sin precedentes en la ciencia. Hoy en día, la gran mayoría de los físicos profesionales emplean la mecánica cuántica con completa confianza.

En el tradicional experimento de los fotones y el polarizador, cada vez que un fotón pasa a través del polarizador nos encontraremos en una situación paradójica. A un ángulo de 45°, dado que un fotón no puede dividirse en partes, cualquiera de ellos debe o bien pasar o bien quedar bloqueado dado que la luz transmitida tiene exactamente la mitad de intensidad que la luz original. Es decir que la mitad de los fotones deben ser transmitidos, mientras que la otra mitad quedan bloqueados. Pero ¿cuáles pasan y cuáles no?

Como se supone que todos los fotones de la misma energía son idénticos y, por lo tanto, indistinguibles, nos vemos obligados a concluir que la transmisión de fotones es un proceso puramente aleatorio. Aunque cualquier fotón tiene una probabilidad del 50 % de pasar, es imposible predecir cuáles de ellos en particular lo harán. Solamente pueden darse las probabilidades.

La conclusión en al ámbito de la física es intrigante e incluso desconcertante. Antes del descubrimiento de la física cuántica se suponía que el mundo era completamente predictible, al menos en principio. En particular, si se realizaban experimentos idénticos, se esperaban resultados idénticos.

Pero en el caso de los fotones y el polarizador, podría muy bien ocurrir que dos experimentos idénticos produjeran resultados diferentes, de modo que un fotón pasa a través del polarizador y otro queda bloqueado.

Generalmente, hasta que no se lleva a cabo una observación no puede saberse cuál será el destino de un fotón dado.

En 1924 Louis Víctor Pierre Raymond De Broglie (premio Nobel de Física en 1929) presentó una tesis de doctorado titulada “Investigaciones sobre la teoría de los cuantos” en la cual exponía una hipótesis muy audaz: si las ondas electromagnéticas estaban formadas por partículas ¿no podrían las partículas, a su vez, ser ondas electromagnéticas?

Víctor De Broglie
De Broglie extiende al ámbito de la materia, la dualidad partícula - onda, verificada con respecto a la luz. Había trabajado con radioondas y era un profundo conocedor de la música de cámara y comenzó a considerar el átomo como una suerte de instrumento musical, el cual, según como esté construido, puede emitir cierta nota fundamental y una secuencia de tonos. 

Por ese entonces, las órbitas electrónicas de Bohr ya se habían impuesto como elementos para identificar los distintos estados cuánticos de un átomo: por lo tanto, él las asumió como esquema básico para su modelo de ondas. Imaginó que cada electrón, al moverse por una órbita dada, iba acompañado de algunas misteriosas “ondas pilotos” (denominadas hoy ondas de De Broglie), distribuidas a lo largo de la órbita misma. La primera órbita cuántica llevaba una onda; la segunda, dos; la tercera, tres; y así sucesivamente.

Así pues, el electrón dejó de ser una partícula. Se prefirió considerarlo como una onda, como una vibración de energía. De Broglie supuso que los electrones fueran minúsculas condensaciones de energía dentro de la onda que los transportaba, sometidas a una turbulencia continua que las hacía saltar de una trayectoria a otra, pero siempre en el interior de la onda misma.

Ernest Rutherford
Este modelo ya no tenía nada de la estructura planetaria como lo había planteado el físico neozelandés Ernest Rutherford (Premio Nobel en 1908). 

Se parecía, en todo caso, a una serie de ondas concéntricas, vibrantes, con un diámetro cada vez mayor a medida que se alejaban del núcleo, y cada una de ellas representaba la onda de vibración del electrón en su órbita. Era una solución revolucionaria acorde con los nuevos datos experimentales.

John Bell, físico teórico en el Centro Europeo de Investigación Nuclear (CERN) de Ginebra, fue calificado por el físico de partículas del Berckeley Laboratory, Henry Stapp, por su Teorema de Bell como el resultado más profundo de la ciencia. Bell dice que puede verse en las ecuaciones de la Teoría de  De Broglie que cuando sucedía algo en un punto las consecuencias se extendían inmediatamente sobre todo el espacio.

John Bell

Estas ideas implican la existencia de un elemento de incertidumbre en el micromundo de los fotones, átomos y otras partículas. En 1927, Werner Heisenberg (Premio Nobel en 1932) cuantificó esta incertidumbre en su famoso principio de incertidumbre. 

Una forma de expresar el principio de incertidumbre se refiere a los intentos de medir la posición y el movimiento de un objeto cuántico simultáneamente. Específicamente, si, por ejemplo, tratamos de localizar muy precisamente un electrón, nos vemos forzados a renunciar a la información sobre su momento.

Recíprocamente, podemos medir el momento del electrón con mucha precisión, pero entonces  su posición queda indeterminada. El mero acto de tratar de fijar un electrón en un lugar específico introduce una perturbación incontrolable e indeterminada en su movimiento y viceversa. Más aún, esta ineludible restricción sobre nuestro conocimiento de la posición y el movimiento de un electrón no es meramente consecuencia de una falta de destreza experimental: es inherente a la naturaleza. Está claro que el electrón sencillamente no posee posición y momento simultáneamente.

Werner Heisenberg
El nombre de Heisemberg permanece ligado a su famoso principio de incertidumbre por el cual la posición y la velocidad de una misma partícula no pueden ser determinadas con precisión en el mismo instante. Cuanto más exacto sea uno de los dos parámetros tanto menos exacto será el otro.

El principio de incertidumbre debilitó el principio clásico de causalidad, base de toda la cosmovisión determinista y provocó controversias muy encendidas.

A escala sociológica

Si bien muchos científicos ya han visto la dificultad de llevar a otras escalas las explicaciones que son útiles para la escala atómica y subatómica, se complica y se entra en el campo filosófico cuando estas  teorías son llevadas por ejemplo al nivel biológico.

Aún más podría serlo llevarla a la escala sociológica. Este escrito es una propuesta para quizás poder darnos una explicación de los fenómenos de incertidumbre que vemos que ocurren a nuestro alrededor: en las personas, las organizaciones y las sociedades.

Según el comentario de Felipe Fernández de la novela Mantra, cuyo autor es Rodrigo Fresán, los personajes y las situaciones establecen conexiones casi invisibles entre sí (que algunos juzgarán forzadas) y obedecen a la teoría cuántica, según la cual existe un infinito número de mundos paralelos al nuestro y todo se relaciona con todo.

Dice Deepack Chopra en La trascendencia del silencio: “es el punto desde el cual la conciencia humana cruza los límites cuánticos; es decir, abandona el mundo material y se sumerge en una región compuesta de energía e información, más allá del tiempo y el espacio. Actualmente, la física cuántica revela el universo como una red invisible en el cual todo está conectado y va fundiendo en lenta alquimia ciencia con espiritualidad. No obstante, eso todavía no ha ocurrido”.

¿Cómo ha cambiado la posibilidad de relacionarnos entre las personas, organizaciones, comunidades, países ?

Hay elementos como la comunicación y la información que se han visto incrementados en gran magnitud en las últimas décadas con la aplicación de la informática.

Según declaró Niels Bohr la física no nos dice nada de lo que es, sino de lo que podemos comunicarnos sobre el mundo. Una profunda consecuencia de las ideas de Bohr es que se altera el tradicional concepto occidental de la relación entre macro y micro, el todo y sus partes. Bohr aseguró que para que tenga sentido hablar de lo que un electrón está haciendo, antes debe especificarse el contexto experimental total. Así, la realidad cuántica del micromundo está inextrincablemente ligada con la organización del macromundo. En otras palabras, la parte no tiene sentido excepto en relación con el todo.

Este carácter holístico de la física cuántica ha encontrado también una favorable acogida entre algunos filósofos y religiosos. En los primeros momentos de la teoría cuántica muchos físicos, incluyendo a Erwin Schrödinger, se apresuraron  a trazar un paralelismo entre el concepto cuántico del todo y la parte y el concepto oriental tradicional de la unidad armónica de la naturaleza.

La construcción del significado ha sido un tema fundamental de estudio por parte de los filósofos. Según Follesdal, filósofo noruego de la Universidad de Stanford, dice que significado es “el conjunto de toda la evidencia disponible para aquellos que se comunican”.

Comunicación e información activa

La idea esencial es la comunicación. Si vemos algo, pero no estamos seguros de si es realidad o sueño, no hay mejor verificación que el comprobar si alguien más lo ha notado y puede verificar las observaciones. Esto es esencial para distinguir entre realidad y sueños. 

Pero otra cuestión es cómo convertimos esto en algo empírico. Podemos apoyarnos en el trabajo y los hallazgos del gran genetista y estadístico R. A. Fisher. Estos datan de 1922, cinco años antes del principio de incertidumbre y de la perspectiva moderna de la teoría cuántica. Fisher estaba estudiando la composición genética de las poblaciones en lo que se refiere a la probabilidad de ojos azules, de ojos verdes, de ojos marrones y renunció a utilizar estas probabilidades como una manera de distinguir  una población de otra. Adoptó en su lugar las raíces cuadradas de las probabilidades o lo que él llamó las amplitudes de probabilidad. En otras palabras, descubrió que la amplitud de probabilidad mide la distinguibilidad.

La distinguibilidad constituye el punto central de lo que llamamos significado.

Deberíamos lograr la “distinguibilidad” de nuestras organizaciones de salud para que ellas tengan un “significado”. De hecho, aquéllas que han logrado distinguirse, tuvieron un significado para la comunidad que asisten.

El concepto de significado lo podemos describir como un producto que es el conjunto de toda la información intercambiada entre los que se comunican. Y esa información se retrotrae a un conjunto de muchos fenómenos cuánticos elementales.

Existe un área donde nuestras observaciones crean la realidad, como es en el de las relaciones humanas: cuando las personas se tornan conscientes unas de otras y se comunican, crean la realidad de la sociedad.

La noción de información activa propuesta por David Bohm, ex catedrático de física teórica en el Bribeck College de Londres, ya nos es familiar en las computadoras. Si alguien grita “fuego” todo el mundo se movería; así pues en los sistemas vivientes inteligentes y en las computadoras, la información activa es un concepto útil.

David Bohm
La teoría ortodoxa dice que no puede predecirse de hecho cómo llegará cada electrón a la pantalla. Sin embargo, lo que hace el potencial cuántico es capacitarnos para calcular el conjunto de trayectorias individuales que dan lugar al patrón de interferencias. Se puede, por lo tanto, mirar la forma del potencial cuántico a partir de los cálculos que se utilizan. El potencial cuántico contendrá cosas como la anchura de las rendijas, la distancia entre éstas y el momento de la partícula; en otras palabras, parece tener alguna información acerca del entorno de la partícula. Es ésta la razón por la que se tiende a considerar que el potencial cuántico surge de un campo que es más un campo de información que de uno físico.

En el mundo real de la física cuántica, ningún fenómeno elemental es un fenómeno hasta que el mismo es registrado.

Tradicionalmente pensamos que la evolución de los proyectos o el Plan Director de una organización en cuanto a la obtención de sus metas y objetivos tienen una evolución lineal. 

Lo planeado, a veces se cumple, y nos sorprendemos cuando ello no ocurre. Es así como una vez más la realidad nos impone cambios, idas y venidas, avances y retrocesos inesperados en “saltos” o “cuantos” tal como se comportan en la escala subatómica.

Al retroceder por la coordenada de los objetivos, volvemos hacia atrás en la línea del tiempo. Este fenómeno estamos observando en muchas organizaciones donde debido a “saltos cuánticos” tenemos la sensación y muchas veces la certeza de que hemos retrocedido en el tiempo.




Pasamos a un estado distinto de energía para poder recomenzar los ciclos en concordancia con la teoría ondulatoria de los electrones.

Erwin Schödinger
Debemos tener una “masa crítica” necesaria de energía para poner en marcha los procesos de cambios en las organizaciones y aumentarla en forma “cuántica” para que estos procesos sean sostenibles y tengan vigor y permanencia en el tiempo.

Como señalaba Huxley, en 1959, la aceptación de cualquier innovación pasa por tres fases: en la primera se la ridiculiza, en la segunda se le reconoce algún valor y es en la tercera, cuando la comunidad científica la adopta mayoritariamente. Por otra parte siempre existen personas que cuestionan la originalidad de tal contribución y destacan que ya otros lo habían descubierto antes.

En 1935, Erwin Schrödinger, uno de los fundadores de la mecánica cuántica, había percibido cómo los problemas filosóficos de una superposición cuántica podrían aparecer a nivel macroscópico. Ilustró este punto, con un experimento ideal, que tiene que ver con un gato, conocido como “La paradoja del gato de Schrödinger”. 





Un gato está encerrado en una cámara de acero, junto a un diabólico dispositivo. En un contador Geiger hay un pedacito de una sustancia radiactiva, tan pequeño, que quizá en el transcurso de una hora se desintegre un átomo, pero también podría ocurrir la posibilidad con igual probabilidad que ninguno se desintegrara; si ocurre lo primero, se produce una descarga en el tubo y mediante un relay se libera un martillo que rompe un pequeño frasco de ácido cianhídrico. El gato moriría. Si se ha dejado que el sistema completo funcione durante una hora, diríamos que el gato vivirá si en ese tiempo no se ha desintegrado ningún átomo. En la primera posibilidad la desintegración atómica lo hubiera envenenado y en la segunda posibilidad el gato viviría.

En nuestras mentes está absolutamente claro que el gato debe estar vivo o muerto. El sistema total dentro de la caja se halla en una superposición de dos estados: uno con un gato vivo y otro con un gato muerto. 

Podríamos concluir que la infeliz criatura permanece en un estado de animación suspendida hasta que alguien mira al interior de la caja para verificarlo, en cuyo momento es proyectado a la vida plena o bien instantáneamente liquidado.

Prefiero la visión del “gato vivo” y espero que los próximos “saltos cuánticos” de nuestra sociedad permitan concretar el objetivo de aplicar la informática con todo su potencial en el área de Salud con la aplicación de la comunicación y la información activa para beneficio de los pacientes y de toda la comunidad.

Albert Einstein

Para finalizar y citando a Albert Einstein "Es más fácil desintegrar un átomo que un pre-concepto".


El autor es:
Médico egresado de la Facultad de Medicina de la Universidad de Buenos Aires
Periodista científico
Consultor en Informática Médica, Calidad y Gestión en Salud
Especialista en Administración Hospitalaria, Auditoría Médica e Informática Médica.
Docente en diversas Maestrías en Gerenciamiento y Administración de Sistemas y Servicios de Salud
Ex Médico del Hospital Manuel Belgrano. Premio Nacional a la Calidad 1994. Buenos Aires. Argentina.

edurodas@yahoo.com.ar





martes, 12 de mayo de 2020

¿COMO NOS COMUNICAMOS?


Por Eduardo Rodas
11 de mayo 2020

En estos tiempos en los que la telecomunicación ha tenido que hacerse cargo de gran parte de nuestros intercambios con otras personas nos vemos obligados a valorar la palabra información.

La conexión, que hoy tanto apreciamos y necesitamos, es un fenómeno tecnológico. La comunicación es una construcción humana y artesanal. Las tecnologías de la información y la comunicación, llamadas TICs, informan menos de lo que se cree y muchas veces provocan abusos de datos innecesarios y banales. Incomunican y aíslan mas de lo que comunican. Y funcionan como detonadores de conductas adictivas. Con solo ver cuanto tiempo nos pasamos conectados a cada aplicación por día sabemos de que estoy hablando.

¿La exageración de datos equivale a conocimiento?. ¿Todo lo que llamamos información realmente lo es?

Información, por definición, es un conjunto de datos organizados y procesados. La palabra tiene su origen en el latín: formatio, “dar forma”; in” hacia adentro”.  Es decir que es la formación de algo nuevo y sólido en el interior de nuestro ser, en lo profundo de nosotros. Eso es información.

Segmentación por edades

¿Es igual informar a las personas de cualquier edad? Seguramente que no. Las empresas de marketing saben muy bien de esto y llegan a cada público de cada edad según distintos abordajes.

Dentro de esa segmentación tenemos a la Generación de los Baby Boomers que son los nacidos entre 1946 y 1964 dentro de la cual me encuentro. La Generación X que son los nacidos entre 1965 y 1980. Los millennials que son los nacidos entre 1981 y 1999 que son la generación viva mas grande y el mayor grupo de edad en fuerza laboral. Son los mas progresistas. Los Centennials que son los nacidos desde los 2000 en adelante, también llamada generación Z. Y la generación T, que se agregó últimamente, que son los nacidos luego del 2010, también llamada generación táctil. Si la pantalla no es táctil el dispositivo no sirve para ellos. Le podemos preguntar a nuestros nietos.
Algunas personas de estos grupos suelen ignorar el mundo que existía antes de ellos.

Todo es líquido

Este es un concepto de Bauman donde nada se consolida, nada permanece y todo fluye hacia la nada. Quien cree que el mundo empezó con su propia vida no se siente obligado a ejercer un valor moral esencial: la gratitud. Y esto lo podemos aplicar a las ciencias, las artes, la política, los deportes, etc. Si considera que nada recibió, nada tiene que agradecer a nadie. Y si no fue depositario de un legado no creerá que deba legar algo. Y si nada recibió y nada legará ¿para qué cuidar, para qué conservar, para qué honrar? Todo es líquido y fluye hacia la nada.

Y así es como podemos cambiar nuestra condición de ciudadanos por la de meros consumidores, consumidores depredadores.

Nacimiento de Internet

En el 2020 y en medio de esta pandemia del coronavirus estamos poniendo a prueba las comunicaciones por internet. Nuestros teléfonos, la radio, la televisión, revistas y diarios, los libros, todo material audiovisual es pasible de ser transmitido por internet. Y nos permite comunicarnos para por lo menos ver y escuchar a nuestros seres queridos a la distancia con aplicaciones de videocomunicación.

El teletrabajo, la teleducación, la telemedicina, están siendo puestas a prueba de un día para el otro exigiéndoles cosas para las cuales todavía no estaban preparadas y nosotros como usuarios tampoco. Pero como se suele decir, peor es nada.

¿Cómo podían imaginar esos dos jóvenes de la Universidad de California en los Angeles (UCLA) y de la Universidad de Standford que su intento casi fallido de aquella primera comunicación iba a permitir que el mundo siguiera conectado aún ante una pandemia, donde los ciudadanos del mundo están confinados en sus casas sin posibilidad de moverse ni de realizar sus vidas en forma habitual?
 
En el delirio de la Guerra Fría entre los Estados Unidos de Norteamérica (EE. UU.) y la Unión Soviética y ante la posibilidad de un ataque con bombas nucleares en sus territorios la Agencia de Investigaciones Avanzadas de EE. UU (ARPA) recibe la solicitud de los altos mandos militares de EE. UU. para que crearan un sistema de comunicaciones que aún ante un ataque nuclear soviético, éste siguiera funcionando. La única manera era que fuera un sistema en red y si fuera destruida una parte de esa conexión la misma podía circular por otros circuitos que hubieran permanecido indemnes.  Es como imaginar una red de un arco de fútbol y que siguiendo sus hilos nos deslizáramos por esa red desde la parte superior hacia la parte inferior. Si se cortan algunos hilos por destrucción nuclear, podríamos tomar otro camino y bajar por otros hilos hasta llegar al lugar deseado. Eso es internet.

Y la transmisión debería hacerse por paquetes de datos para poder diversificar la transmisión. Es decir que la información debía fragmentarse y encapsularse en paquetes para que viajaran de forma independiente entre origen y destino. Y así sigue funcionando hasta nuestros días.

Esta tarea fue encomendada a Leonard Kleinrock, Profesor de Ciencias de la Computación en la UCLA, quien fue el que diseñó los mecanismos que hicieron posible Arpanet y por extensión a Internet. Probar si su mecanismo de empaquetado de la información funcionaba o no funcionaba no era tarea para un Profesor y delegó esa tarea en dos jóvenes ayudantes, pensando que eso que le habían solicitado era un total delirio producto de las mentes mas que afiebradas por la Guerra Fría.

Dice Leonard Kleinrock  "No sabíamos que estábamos a punto de realizar algo que tendría impacto global. En cuanto a lo que nos concernía, estábamos simplemente llevando adelante un experimento útil para verificar el funcionamiento de nuestra recién nacida red, dos computadoras a 500 km de distancia que se iban a comunicar por teléfono. No había nadie de la prensa, ni una cámara, ni un grabador, ¡nada! ¿Acaso preparamos un mensaje memorable que pasara a la historia? En absoluto. Nuestros predecesores habían sido mucho más sabios. El primer mensaje de telégrafo, por Samuel Morse en 1844 fue “¿Qué ha creado Dios?"; el primer mensaje mediante un teléfono, por Alexander Graham Bell, quien en 1876 pronunció las palabras "Sr. Watson, venga aquí, lo necesito"; el primer mensaje desde la Luna, por Neil Armstrong, en 1969, fue "Es un pequeño paso para el hombre,  un gran salto para la Humanidad". ¡Estos hombres entendieron los medios de difusión y la prensa!

Continúa diciendo Kleinrock "Esa noche del 29 de octubre de 1969, mi programador en la UCLA, Charlie Kline, se sentó en la terminal y se conectó por medio de la línea telefónica con el programador del Instituto de Investigaciones de Stanford (SRI), Bill Duvall, mientras nos preparábamos para loguearnos, es decir iniciar para una sesión, sólo para estar seguros de que la red de paquetes estaba comportándose como debía. Es irónico que estuviéramos usando el teléfono para probar la nueva tecnología de conmutación de paquetes, que estaba a punto de producir cambios disruptivos y que pondría en entredicho a la misma red de telefonía. Fue así que con prácticamente nadie presente, nos preparamos para loguearnos desde una terminal en la UCLA con la computadora del SRI. Resulta que ese sistema usaba un lenguaje de comandos basado en caracteres que hacía eco de cada carácter tipeado por el operador, es decir que había que tipear uno a la vez. La SDS 940, una de las computadoras de gran tamaño más admiradas de la década de 1960, también ofrecía el autocompletado de comandos. O sea que una vez que tipeabas 'log', la 940 agregaría 'in' para completar el comando 'login'. La computadora, naturalmente, daba por sentado que todos los usuarios estaban ubicados localmente, y no a cientos de kilómetros de distancia, como lo estábamos nosotros. Así que Charlie Kline en la UCLA tipeó la 'l' (ele) y le preguntó a Bill Duvall en Stanford si había recibido la 'l'. Bill contestó 'Si, recibí la l', y entonces la 'l' se repitió en nuestra pantalla. Charlie tipeó la 'o' y volvió a preguntar si había llegado. Bill dijo 'Si, recibí la o', y la 'o' se repitió también en nuestra pantalla. Charlie tipeó la 'g' y le preguntó a Bill si había recibido la 'g', pero esta vez no hubo respuesta. ¡El sistema del SRI de Stanford se había colgado!
 
Así que el primer mensaje de Arpanet fue, en realidad, 'lo'. Esto ocurrió pocas semanas después que el hombre llegara a la Luna, a las 22.30 del 29 de octubre de 1969, y Charlie Kline anotó esto en el cuaderno como la nota final del día: "Hablé con el SRI de Stanford, computadora a computadora". Esa entrada en el cuaderno es el único registro del primer mensaje. Con la aventajada mirada de hoy, decimos que la interpretación de este maravilloso mensaje es ¡“Lo, ahí tienen!”. ¡No podríamos haber esperado un mensaje más sucinto, profético y poderoso!

Sin embargo, esa noche ninguno pensó mucho en eso. Descubrimos rápidamente y resolvimos la causa que había hecho colgar al sistema del SRI y más tarde completamos exitosamente el login. Nos fuimos a casa con la gratificante sensación de haber cumplido con ese experimento básico, pero ciertamente ninguno se sintió eufórico o reconoció el significado histórico de lo que habíamos hecho aquella noche".

La gratitud

Y aquí nuestra gratitud a estos hombres y a estos jóvenes por su persistencia en lograr lo imposible. Como dijo Steve Jobs “Este es un homenaje a los locos, a las fichas redondas en los huecos cuadrados, a los que ven las cosas de forma diferente”.

Ultimo Artículo publicado

Reconocimiento a médicos argentinos por su labor humanitaria y científica

  por Eduardo Rodas,  Médico y Periodista Científico,  2 de mayo de 2025 RECONOCIMIENTO A MEDICOS ARGENTINOS POR SU LABOR HUMANITARIA Y CI...