viernes, 28 de febrero de 2020

Qué es el grafeno?



Qué es el Grafeno?
Eduardo Rodas
28 de febrero, 2020
Palabras: 905
Tiempo de lectura: 4 minutos 

Andre Geim es un científico ruso nacionalizado holandés y Konstantin Novoselov, también científico ruso es ciudadano británico. Ambos son físicos y estudiaron su carrera en Rusia. Ahora son profesores de la Universidad de Manchester en Gran Bretaña.
Si bien el grafeno se conoce desde 1930 los dos científicos lograron en 2004 estabilizar el material del grafeno y producirlo a temperatura ambiente y por este descubrimiento lograron el Premio Nobel de Física en el 2010. Es la primera vez que transcurre un tiempo tan corto entre el hallazgo científico y el otorgamiento del premio. 
Geim y Noselov extrajeron el grafeno de un trozo de grafito como el que se encuentra en la punta de cualquier lápiz utilizando una cinta adhesiva, a la cual doblaban sobre sí misma muchas veces, esto les permitió extraer del grafito una lámina de un solo átomo de carbono: esto es el grafeno.
Esta monocapa de átomos de carbono tiene propiedades extraordinarias que está comenzando a revolucionar diversas industrias por las propiedades que distinguen a este material.

Su grosor es la de un átomo colocados en una red atómica perfecta con forma de panel de abejas teniendo en cada uno de sus ángulos un átomo de carbono. Esta disposición espacial lo hace ser un material mas liviano que el aluminio, doscientas veces mas duro que el acero, mejor conductor de la electricidad que el cobre, mejor conductor del calor, es casi transparente y es tan denso que ni siquiera un átomo de helio (el átomo mas pequeño de un gas) puede atravesar sus agujeros.  

Algunas de sus aplicaciones
Es uno de los materiales mas duros y fuertes existentes y es altamente rígido por lo cual soporta grandes fuerzas sin apenas deformarse. También soporta grandes fuerzas de flexión, es decir se puede doblar sin que se rompa. Los premio Nobel hicieron una comparación con una hamaca de grafeno de un metro cuadrado de superficie y un solo átomo de espesor. Esta hamaca de grafeno podría soportar hasta 4 kg antes de romperse. Esto equivaldría al peso de un gato. Y en total esta hamaca pesaría lo mismo que uno de los pelos del bigote del gato, menos de un miligramo.
Investigadores de la Universidad de Cambridge lograron que el grafeno fuera capaz de captar una gran cantidad de luz, por lo que se puede utilizar en la creación de cables de fibra óptica muy veloces: los electrones se desplazan muy rápidamente en él. Puede implementarse en el área de las telecomunicaciones para la instalación de redes mas veloces aumentando la capacidad y la rapidez de internet, la telefonía móvil y de todas las comunicaciones que se realizan en nuestro planeta.

Se podrían crear superbaterías eléctricas por sus propiedades en este tema: el litio podría ser reemplazado por grafeno. Las baterías durarían mas y las cargas eléctricas serían mas espaciadas en los teléfonos móviles, las computadoras portátiles, las tabletas y hasta en los automóviles eléctricos.
Investigadores de la Universidad de Texas y de la Universidad de Corea del Sur descubrieron que una lámina de grafeno puede utilizarse en el desarrollo de pantallas táctiles. Es totalmente transparente y sensible a la conducción eléctrica. Ya tenemos teléfonos móviles que se colocan alrededor de la muñeca del usuario como si fuera una pulsera electrónica.


Qin Zhou y Alex Zetti de la Universidad de California quieren revolucionar el mercado del audio gracias a sus auriculares y altavoces de grafeno. Se podrían crear parlantes y auriculares de alta calidad que al mismo tiempo son muy pequeños y livianos.
Científicos de la Universidad Tecnológica de Nanyang en Singapur lograron crear un sensor de grafeno que aumenta la sensibilidad del sensor que capta la luz de una cámara fotográfica aumentando la sensibilidad del dispositivo unas mil veces en relación a las tecnologías actuales CMOS o CCD. Además estos nuevos sensores de grafeno consumen diez veces menos energía y son cinco veces mas económicos de producir que los sensores convencionales.
Para la desalinización del agua se pueden utilizar láminas de grafeno con poros de 1,8 nm.  Las moléculas de agua pueden pasar pero no las de sal. Y se podrían sustituir las membranas actuales en el proceso de ósmosis inversa para la creación de agua potable.
Tiene otra propiedad excelente: se autorepara. Cuando una lámina de grafeno sufre daño y se quiebra su estructura se genera un agujero que atrae átomos de carbono vecinos para así tapar los huecos. Esto abre un inmenso campo para su utilización en medicina. Nuria Campos Alfaraz, investigadora del ITMA Materials Technology con sede en Avilés, España, nos señala que se ha demostrado que el grafeno por su alto contenido en carbono es un material que estimula el crecimiento de las células, lo que lo convierte en un sustrato con un potencial muy interesante para la medicina regenerativa. Para esto los científicos asturianos han creado espumas de grafeno capaces de promover el crecimiento celular.
Concluyo diciendo que el carbono del que está hecho el grafeno es un elemento fascinante, es muy común en la naturaleza, el 18 % del cuerpo humano está hecho con carbono, cuando se organiza en una monocapa de átomos tenemos el grafeno, cuando se organiza en capas bidimensionales débilmente unidas tenemos el grafito con el que se fabrican las minas de los lápices y cuando se empaqueta densamente en una estructura tridimensional tenemos un diamante. Este noble material no dejará de darnos sorpresas.


jueves, 27 de febrero de 2020

Después de 25 años......!!!!!!!! Todo llega...TARJETA ALIMENTARIA

Eduardo Rodas
febrero 2020
Palabras: 1204
Tiempo de lectura: 6 minutos
 
Tuve oportunidad de ver en el año 1994 en mi visita a la ciudad de Austin, la capital del estado de Texas con motivo del congreso de bioinformática que organizó la Universidad de Texas, la gran preocupación que existía en ese estado de los EE. U.U. por el tema de los “chicos con hambre” tal como aparecían los mensajes en los distintos lugares donde solicitaban una contribución. Para recibir sus cupones alimentarios, los 3 millones de beneficiarios texanos insertan su “Lone Star Card” - la tarjeta de la estrella solitaria - en una terminal del mostrador de control de un comercio, e ingresan su número de identificación. El precio de los alimentos adquiridos es luego automáticamente deducido de su asignación y agregado a la cuenta del comercio minorista correspondiente. 
El sistema reconoce el código de barras de los productos no autorizados para la compra, como por ejemplo las bebidas alcohólicas y los cigarrillos, y de ese modo asegura que los subsidios para la alimentación sean realmente gastados en comida. Los funcionarios de Texas advirtieron que, cada vez que en las ciudades del Estado se introducía la transferencia electrónica de beneficios, la venta de bebidas alcohólicas tendía a disminuir mientras que la de alimentos aumentaba.
 
Escribí a mi regreso del viaje:

"Red de Administraciones Públicas

Tendremos redes interconectadas entre las administraciones públicas con el fin de intercambiar información de manera más efectiva y barata, sustituyendo la tramitación de documentos en papel por medios electrónicos. Posteriormente se podrá ampliar la conexión a la ciudadanía. 
Los Estados deben reforzar y acelerar la realización de un programa de intercambio de datos entre sus administraciones. El sector privado incrementará su cooperación con los Estados para encontrar las soluciones técnicas para la prestación de servicios interoperables y la creación de redes interconectables, y colaborará con las autoridades nacionales y locales en los ensayos y la instalación de redes y la prestación de servicios destinados a los ciudadanos.
El proceso de unificación quedará reforzado, lo que acarreará beneficios en forma de reducción de costos y de mejores relaciones entre las administraciones públicas y los ciudadanos.
Un ejemplo ocurre con el pago de las pensiones y jubilaciones en Finlandia y Namibia. Dos países con un distinto grado de desarrollo y que son pioneros en el pago de estos servicios sociales en forma electrónica. Sus jubilados retiran en efectivo el monto que les corresponde insertando una tarjeta emitida por el gobierno en una máquina que es una variante del cajero electrónico, que les entrega el dinero en forma inmediata.

Este método de transferir dinero en efectivo del Estado a la gente, conocido como “transferencia electrónica de beneficios” hará que los registros y los cheques de las obras sociales se vuelvan anticuados. Más eficientes que el papel y con menor posibilidad de estafas estos sistemas de transferencias electrónicas forman parte de la obra social del futuro.

Algunas regiones del norte de Italia y tres provincias de Sudáfrica también ya instalaron centros de transferencia electrónica de beneficios para pagar jubilaciones y pensiones; Méjico tiene en vías de experimentación un programa que controla la entrega de leche y alimentos a aproximadamente dos millones de familias de bajos recursos.

Gran Bretaña tiene previsto, ambiciosamente, desembolsar electrónicamente casi el total de sus 90.000 millones de libras esterlinas (unos 150.000 millones de dólares) en gastos sociales para el año 2000, un sistema que según el gobierno reducirá el monto total de las estafas entre 150 y 200 millones de libras esterlinas por año. Un proyecto piloto relacionado con las asignaciones de beneficios para la minoridad ya está en marcha. Las personas habilitadas para recibir ese beneficio obtendrán una tarjeta, diseñada por ICI Patfway, que guarda los datos sobre su asignación. La tarjeta se inserta en una computadora del correo postal, la cual verifica la identidad del titular y establece cuanto se le debe; un cajero entrega luego el dinero en efectivo. No hay registros que puedan ser escamoteados ni de que un tercero cobre un cheque robado.

En los EE. UU. la ley de reforma de las obras sociales aprobada el año último exige que los 50 Estados tengan instalado un sistema de transferencia electrónica de beneficios para el 2002 en el caso de los cupones alimentarios. Casi todos aprovechan la oportunidad para incluir también en la tarjeta las asignaciones de la obra social para las familias pobres. Transactive, una compañía subsidiaria de Gtech con sede en Rhode Island, cuenta hasta ahora con el mayor sistema en funcionamiento, en Texas. Transactive recibe 2 dólares mensuales por cada beneficiario de cupones alimentarios y 97 centavos de dólar por cada beneficiario de ingresos complementarios de ayuda social. A cambio, se ocupa de la capacitación y de la infraestructura, por ejemplo, para la instalación de terminales.

Tuve oportunidad de ver en el año 1994 en mi visita a la ciudad de Austin, la capital del estado de Texas con motivo del congreso de bioinformática que organizó la Universidad de Texas, la gran preocupación que existe en ese estado de los EE. U.U. por el tema de los “chicos con hambre” tal como aparecían los mensajes en los distintos lugares donde solicitaban una contribución. Para recibir sus cupones alimentarios, los 3 millones de beneficiarios texanos insertan su “Lone Star Card” - la tarjeta de la estrella solitaria - en una terminal del mostrador de control de un comercio, e ingresan su número de identificación. El precio de los alimentos adquiridos es luego automáticamente deducido de su asignación y agregado a la cuenta del comercio minorista correspondiente.

El sistema reconoce el código de barras de los productos no autorizados para la compra, como por ejemplo las bebidas alcohólicas y los cigarrillos, y de ese modo asegura que los subsidios para la alimentación sean realmente gastados en comida. Los funcionarios de Texas advirtieron que, cada vez que en las ciudades del Estado se introducía la transferencia electrónica de beneficios, la venta de bebidas alcohólicas tendía a disminuir mientras que la de alimentos aumentaba. Estas tarjetas no son aún “inteligentes”. Es decir que utilizan bandas magnéticas y no un microchip para contener la información, de manera que no pueden procesar los datos.

En España se decidió utilizar tarjetas “inteligentes”. En un programa conocido como TASS, las autoridades españolas comenzaron a incorporar una vasta gama de informaciones en las nuevas tarjetas de la seguridad social. Según el programa, los beneficios sociales todavía son depositados directamente en cuentas bancarias. Pero los ciudadanos españoles pueden utilizar la tarjeta desde lugares previamente designados para comunicarse  con las distintas oficinas del gobierno. Pueden controlar el estado de sus jubilaciones y beneficios por desempleo, preguntar acerca de la capacitación laboral, verificar su seguro de salud o pedir turno en una clínica. Smart Card News, un boletín de prensa publicado en Gran Bretaña considera que TASS es la mayor y más extensa de esas iniciativas en el mundo. Por ahora dos millones de ciudadanos tienen esa tarjeta en su poder. Está previsto que para el 2002 todos los españoles la tendrán."



Publicado en el libro "Informática Médica: visión del pasado, presente y futuro" escrito en 1997. Autor: Dr. Eduardo Rodas

Capítulo IX Introducción a la Informática Médica, La Sociedad de la Información. Páginas 95-97

martes, 25 de febrero de 2020

Desarrollo de las redes informáticas de investigación y otras aplicaciones en la República Argentina


Dr. Daniel Jares - Dr. Eduardo Rodas
1997
Palabras: 3077
Tiempo de lectura: 15 minutos

Para quienes estamos utilizando los variados servicios que ofrecen las comunicaciones entre computadoras nos embarga una sensación de asombro e incredulidad al pensar que pocos años atrás esto era un sueño de ciencia ficción, más apto para mentes fantasiosas que para científicos serios.
A medida que nos fuimos acercando al mundo de la Informática Médica en la década de1980, con la esperanza de poner en marcha algún rudimento de registros médicos en soportes magnéticos, compatibilizar las historias clínicas de especialidades, ordenar los pacientes y otros servicios que la computadora nos ofrece, comenzamos a vislumbrar el poderío del arma que se ponía a nuestra disposición.
El atraso tecnológico en materia de comunicaciones que sufría y en parte todavía sufre nuestro país, el envilecimiento de nuestra moneda y las condiciones de inestabilidad económica hacían imposible pensar en adelantos a corto plazo. En el último lustro muchas de esas condiciones mejoraron y permitieron el avance que hoy podemos ver, a pesar de que aún nos resta resolver el tema de las altas tarifas, con tendencia creciente y no decreciente. Pero hubo pioneros que a pesar de las dificultades hicieron lo imposible para que esta historia comenzara.
En el comienzo de la década de 1980 empiezan a difundirse entre los radioaficionados de Argentina los equipos de muy alta frecuencia (VHF) en equipos móviles y casi todos los radio clubes colocaron repetidoras para comunicarse entre ellos. Dentro del grupo de radioaficionados que comienzan a utilizar estos equipos de VHF surge un pequeño grupo de bioquímicos, químicos, médicos e ingenieros que imaginan que debía haber algún sistema para comunicarse en el área biomédica que fuera mas accesible que la comunicación de radioaficionados ya que esta requiere una cierta mística especial a su alrededor.
Para la misma época aparecen las primeras pequeñas computadoras en un precio del orden de los centenares de dólares estadounidenses. Mientras alguno de nosotros realizábamos Protocolos de Atención en perinatología según los niveles de complejidad de los efectores o alguna que otra estadística, teníamos el inconveniente que los Hospitales de distintas jurisdicciones tenían sus radios en distintas frecuencias y no podían comunicarse entre sí. Por supuesto no imaginábamos el vuelco que iba a tener esta historia.
Este pequeño grupo de radioaficionados desarrollaron las tareas básicas que permitían a estas computadoras muy baratas conectarse a distancia: sistemas de telegrama, de radio teletipos, sistemas de comunicación a través de satélites que también para la misma época se ponían al servicio de los radioaficionados en la Argentina y esto permitía que con una computadora sumamente económica se pensara en hacer algo útil para la red de salud. No obstante esto requería un radio receptor transmisor, sistema que no estaba al alcance de los médicos, ni tecnológica ni económicamente.
El uso cada vez más masivo de computadoras personales determinó en un momento el surgimiento de “sistemas de carteleras” o BBS´s (Bulletin Board Systems). En otras palabras, lo que se hacía era poner una computadora a disposición de los usuarios a través de una línea telefónica, quedando lista para responder en cualquier momento a los requerimientos de otras computadoras que se hicieran presentes por la vía telefónica. Algunos médicos experimentaron con estos BBS (Charlie BBS, que tenía un forum médico, de increíble originalidad para la época), pero la difusión en el área de la salud se reducía a pequeños grupos de iniciados y los temas de consulta eran más de índole técnica que médica.
Desde el Hospital de Niños Ricardo Gutiérrez y del Departamento de Análisis Clínicos de la Facultad de Farmacia y Bioquímica de la Universidad de Buenos Aires (UBA) se aunaron esfuerzos para transformar esta situación utilizando como vehículo a las líneas telefónicas en lugar de las radios. Se desarrollaron así pequeños módem telefónicos para las pequeñas computadoras ZX81 de Sinclair y se consiguió entusiasmar a más pioneros que permitieron el acceso del Grupo Hospital que se estaba formando en una empresa de comunicaciones y podían utilizar una Microvax dedicada a mensajería. Aparecen luego las PC's en el precio
del orden de los miles de dólares estadounidenses y se ponen al alcance de algunas instituciones. Con este equipamiento y un módem de 300 baudios se podían comunicar con alguna computadora similar en alguna otra parte del mundo. El Grupo Hospital alcanzó 20 médicos y bioquímicos que recorrían, incorporaban retiraban novedades y veían que la comunicación internacional valía el esfuerzo. Así se contactó al Instituto de Astrofísica y al Observatorio Astronómico de la Ciudad de La Plata y ofrecieron la conexión con el Departamento de Cómputos de la Facultad de Ciencias Exactas. De allí surge el primer disquete y el software con el nombre de cuenta GUTI (Hospital de Niños R. Gutiérrez) para poder acceder a la máquina de la Facultad de Ciencias Exactas. Quien alcanza por ese entonces la jefatura del Centro de Cómputos de la OPS Argentina (Oficina Panamericana de la Salud en Argentina) logra entusiasmar a sus autoridades por los sistemas de comunicaciones y se consiguen recursos para instalar un nodo distribuidor en OPS/OMS de Argentina para lo cual se recurre a la conexión de la Facultad de Ciencias Exactas y a la propia Cancillería.
El Hospital de Niños R. Gutiérrez recibe en donación una computadora 386, con un disco rígido de 70 MB, 2 MB de RAM y dos módem de 2400 baudios. Se convierte así en uno de los nodos distribuidores de la red. Lo mismo ocurre con el Departamento de Análisis de la Facultad de Farmacia y Bioquímica de la Universidad de Buenos Aires. Esto dio origen a una red de salud con la potencia y el esfuerzo de la OPS, de Farmacia y Bioquímica y del Hospital Gutiérrez y se multiplica por 5 el número de usuarios en el área de salud.
A partir de allí las cosas se desencadenan rápidamente y el mapa de la red de salud se hace mas complejo existiendo hoy varios nodos distribuidores que se agregan a
los ya mencionados: Secretaría de Ciencia y Técnica (SECYT), Administración Nacional de Medicamentos (ANMAT), PCCP (nodo privado), y varios mas distribuidos en distintos lugares del país. Su salida fundamental es a través del canal de la Cancillería, con otros canales como alternativa.
Hacia fines de 1983, con el advenimiento de la Democracia en Argentina, vuelve gente a la Universidad, la cual estaba muy carente de recursos y a comienzos de 1984 se crea en la Facultad de Ciencias Exactas el Departamento de Computación. Es el mas antiguo de América Latina ya que había comenzado en 1960 como Carrera de Computación Científica y tradicionalmente se consideró que debía depender de Matemática. El desarrollo en sí de la computación fue restringido por esa estructura, lo que se modifica hacia comienzos de 1984.
Simultáneamente comienza el proyecto de informatizar el Ministerio de Relaciones Exteriores (Cancillería) de nuestro país impulsado, entre otros, por la visita de un científico extranjero que quería comunicarse con su país. Produjo un gran asombro que ese hecho pudiera ocurrir en Argentina.

El proyecto de la Red Académica Nacional se desarrolló en la Facultad de Ciencias Exactas, en su Departamento de Computación con el fin de suministrar el correo electrónico y otros servicios en nuestro país. Comenzó con extrema modestia: con computadoras, módem y teléfonos prestados. Se encontró que en términos económicos era un proyecto de rentabilidad para el mundo científico porque con un costo extremadamente bajo se podía compensar en forma bastante adecuada la carencia de material bibliográfico y de información que existía en la Universidad de Buenos Aires y en las distintas universidades del país.
Hubo muchísima oposición pues se pensó que el proyecto era delirante. ¿Cómo una Universidad que ni siquiera podía comprar revistas científicas iba a darse el lujo de comunicarse con el mundo? Hoy no solo la Universidad, sino aún nosotros desde nuestros hogares y desde las pequeñas computadoras portátiles, estamos comunicados con el mundo. El fenómeno Internet hoy está disponible por las bandas de música pesada, los fabricantes de mayonesa, por no mencionar el extensivo uso que de la red hacen las empresas periodísticas y de información. Estas posibilidades no son iguales para todas las regiones de país, pero ya veremos como existen polos de desarrollo en distintas zonas apartadas Buenos Aires que van configurando esa tela de araña que queremos ver extendida por todo el territorio nacional.
La información comenzó a fluir. Las redes comenzaban a desarrollarse en distintas partes del mundo, en países desarrollados y no desarrollados. Se solicitaron toda clase de apoyos, públicos y privados. Y así fueron apareciendo las primeras computadoras, una línea de teléfono y algún cargo como para tener un operador dispuesto a trabajar en esta nueva manera de comunicarnos.
El nodo de la Cancillería continuaba creciendo y por ser el que tenía más equipamiento disponible se transformó en un nodo concentrador.
Comenzaba también en esa primera etapa sus actividades en comunicaciones en Argentina la Oficina Panamericana de la Salud (OPS). Era imprescindible en esta etapa ampliar la formación de las personas que utilizarían la red. Así nos conectamos en el Hospital Belgrano a Internet vía correo electrónico en 1989, y comenzamos con cursos de capacitación continua en el manejo de estas nuevas tecnologías para el personal del Hospital. Tenemos ejemplos de quienes aún sin saber escribir a máquina están hoy operando sus computadoras personales gracias a su esfuerzo y a los programas de educación continua que se brindan.
En un crecimiento sin precedentes, de unos pocos nodos que había en 1984 podemos decir en 1996 que existen mas de 2000 distribuidos por todo el país, sin saber la cifra exacta, pues constantemente se están abriendo nuevos. Este incremento es constante al de mejores líneas telefónicas, mejores servicios telefónicos y mas gente con voluntad que la red de salud distribuida por todo el país, funcione en forma solidaria y muchas veces sin recibir retribución por este trabajo agregado, nos recuerda el espíritu de aquellos pioneros radioaficionados. Para los profesionales, por otro lado, el “quedarse afuera”, significa perder un arma poderosa,
con la que sus colegas cuentan cada vez con más asiduidad.
Desde 1992, el Centro de Comunicaciones Científicas de la Universidad de Buenos Aires tiene como misión armar, mantener y operar la red universitaria. Poco a poco docentes, investigadores y alumnos utilizan la red para comunicarse con colegas de todo el mundo y acceder a bases de datos de información del exterior.
La Universidad de Buenos Aires esta conectando sus unidades académicas mediante enlaces dedicados de alta velocidad para que las mismas puedan conectarse al resto de la comunidad Internet nacional e internacional. Las unidades académicas tienen a su disposición información generada por cada una de ellas y pueden interactuar entre sí. Esta comunicación resulta imprescindible para la actualización, la docencia y la investigación que se realiza en una casa de estudios de esa importancia académica.
Consideramos que la investigación es producción de conocimientos y que con estas nuevas herramientas es posible revolucionar las formas de educación directa y a distancia. La producción científica estará no sólo disponible para la comunidad académica de la UBA sino también para todo el ámbito nacional e internacional. A su vez, los miembros de la Universidad de Buenos Aires pueden acceder a la información generada en diferentes instituciones académicas de todo el mundo, con la posibilidad de búsqueda aún sin conocer en qué lugar se encuentra.
Las unidades académicas interconectadas son: Farmacia y Bioquímica, Medicina, Psicología, Filosofía, Ciencias Sociales, Derecho, Ciencias Económicas, Ingeniería, Arquitectura, Ciencias Exactas, Agronomía, Odontología, Ciencias Veterinarias, agregándose a estas 13 facultades el Colegio Nacional de Buenos Aires y el Rectorado de la Universidad. También están conectados otros institutos como: Ingeniería Biológica, la Fundación Campomar, el Instituto de Astronomía y Física del Espacio, el Centro de Investigaciones del Mar y la Atmósfera, el Instituto del Cálculo, el Instituto de Tecnología Industrial, el Instituto de Tecnología Agropecuaria, la Secretaría de Ciencia y Técnica de la Nación (SECYT). Toda esta red universitaria cuenta actualmente con un enlace propio dedicado de 128 K con el exterior. Cada unidad académica esta instalando en estos momentos su red interna para que los
docentes, investigadores y alumnos la utilicen desde su lugar de trabajo.
A su vez esta red se integra con el Proyecto Red de Interconexión Universitaria (RIU) que vinculara a las 33 universidades nacionales entre sí y con el exterior. De esta manera esta red de la UBA se comunica con otras entidades, como las universidades de La Plata, Córdoba, Bahía Blanca, Litoral, San Luis, Nordeste, Cuyo, la CONAE, la CNEA, Ministerio de Relaciones Exteriores, Ministerio de Economía, Ministerio de Educación, etc.
Sabemos lo importante que es contar con un mecanismo para que el sistema científico argentino se comunique entre sí. En poco tiempo más, el conjunto de las 33 universidades nacionales estarán interconectadas. Contar con la red es tan importante como contar con un espacio de trabajo, con luz, con agua o con teléfono.
Es contar con una herramienta que nos ayude a superar los obstáculos y romper con el aislamiento que durante tantas décadas nos tuvo alejados entre nosotros y de los grandes centros del conocimiento.
Desde mediados de 1995 los profesionales independientes y las empresas e instituciones privadas también tienen acceso a Internet vía proveedores de servicio comerciales contratando accesos dedicados o de telefonía común.
Ha sido muy importante el crecimiento de las comunicaciones por computadoras, el desarrollo que ha adquirido en estos últimos años la Informática Médica en general, con un número mayor de médicos y paramédicos integrados, con computadoras personales dando los primeros pasos de autoinstrucción. El acceso a las bases de datos internacionales como la National Library of Medicine (NLM) es el tipo de actividad integradora y de resolución inmediata, dado que la primera necesidad que se enfoca por alguien que se integra al sistema es la búsqueda bibliográfica.
Argentina carece de Bibliotecas importantes, y las que los son, muchas veces están desorganizadas, no por fallas de su personal que hace ingentes esfuerzos sino que, debido a restricciones presupuestarias, estructurales y deficiencia en los servicios, no disponen del material científico que necesitan los profesionales.
Durante largos períodos debieron suspenderse importantes suscripciones a revistas científicas pues las dificultades económicas hacían imposible su pago, a lo que se agrega la alarmante capacidad del correo oficial. El tradicional sistema de ordenación por fichas lleva una cantidad de energía humana que en general no es reconocida por los usuarios. Por eso la "biblioteca electrónica" vino a corregir este desfasaje.
Hoy podemos consultar desde cualquier lugar del país la Biblioteca Nacional de Medicina de los Estados Unidos de una manera rápida, confiable y económica a las bases de datos con información médica de primer nivel y permanentemente actualizadas.
El Hospital Belgrano fue integrante del beta test que hacia finales de la década de 1980 hicieron algunos pocos centros de nuestro país; junto a la OPS y la Universidad de Chile pusieron en forma esta herramienta de consulta científica para nuestros profesionales. Así se fue generando la cultura de las búsquedas en los médicos del Hospital y la evolución en la cantidad de búsquedas solicitadas durante los últimos cuatro años es la siguiente:




1992: 178
1993: 191
1994: 243
1995: 284

En tres años se duplicó el tráfico electrónico debido a búsquedas electrónicas en el
Hospital Belgrano.
Respecto a los mensajes recibidos por correo electrónico la evolución es la
siguiente:
 

1992: 1107
1993: 2254
1994: 2303
1995: 4281

Se duplicó el tráfico en los últimos tres años con un gran aumento durante el año 1995 con la aparición de facilidades de acceso a Full Internet a través de distintas organizaciones públicas y privadas. El Hospital Belgrano se conectó a Full Internet el 15 de mayo de 1996 y tiene su pantalla WWW en el nodo de la OPS y en PCCP desde mediados de 1995.
El correo electrónico nos permite efectuar interconsultas con lugares remotos y a los profesionales alejados de los grandes centros mantenerse en contacto con aquellos que fueron sus formadores. Se efectúan ofrecimientos y búsquedas de trabajo, se publicitan jornadas y congresos científicos, se informa sobre las resoluciones de la Administración Nacional de Medicamentos (Anmat) respecto a los efectos indeseables de las drogas o suspensión de medicamentos. Se efectúa también por este medio el Programa de Farmacovigilancia a cargo del ANMAT que comunica instantáneamente desde distintos lugares del país los efectos colaterales indeseables de drogas o alimentos.
Como en muchos otros aspectos de la informática, podemos decir que en este aspecto el límite es la imaginación. Una disminución en los costos de las comunicaciones hará posible la fuerte expansión de la transmisión de imágenes y sonidos con lo cual se amplia el campo de posibilidades para interconsultas clínicas y de imágenes. Ya tenemos algunos centros que efectúan este tipo de consultas con lugares de excelencia dentro del país y del exterior.
En estos momentos hay una rápida expansión de la fibra óptica en distintas ciudades del país, con lo cual se pasa de centrales obsoletas con cables de cobre cubiertos en tela, oxidados y húmedo por los años, a esta moderna tecnología que nos permite una comunicación más rápida y económica.
El equipamiento puede llegar simultáneamente a los países desarrollados y a nuestro país. Una vez más esta situación no es pareja para las distintas regiones y en algunas de ellas, se debe aún hacer un esfuerzo impresionante para capacitar los recursos humanos en el uso de las nuevas tecnologías. Esta será sin duda, la gran tarea de los próximos años.
La Red de Salud es básicamente muy cooperativa. Funciona si quien la usa, la hace funcionar y si vuelca su información al mismo tiempo que la recoge. Y así llegaremos a la comunicación en tiempo real a medida que las tarifas se adecuen a precios razonables.






 

Y este esfuerzo de algo mas de 10 años está dando amplios frutos; se están generando gran cantidad de listas por temas médicos afines, en foros de discusión a nivel nacional e internacional en listas como las de Salud Pública, Calidad en Atención Médica, Asma, Cardiología, Psiquiatría, Hospitales Públicos, etc.
A estos pioneros y seguramente a muchos más que, con el riesgo de ser injustos, mas bien por fallas de nuestra memoria que por falta de méritos, también les hacemos llegar nuestros más sinceros agradecimientos: Alberto Barengols, Fernando López Guerra, Marcela Giussani, Adolfo Galanternik, Hugo Scolnik, Adolfo Donofrio, Pedro Collia, Julián Dunaievich, Lila Rousseaux y muchos más ...


Autores: Dr. Daniel Jares; Dr. Eduardo Rodas

Publicado con el título "Cabling Argentina for Research and Beyond". Internet, Telematics and Health. Ios Press. Pág. 319-323  Amsterdam. 1997
 

Física Cuántica y Sociología: Comunicación e información activa


Dr. Eduardo Rodas
Médico. Periodista Científico

edurodas@yahoo.com.ar
Primera Publicación: 1 de Junio 2002

Palabras: 3370
Tiempo de lectura: 16 minutos

Un intento para la explicación en la evolución de la informatización en las áreas de Salud que ha ocurrido en nuestro país en la década de los ’90 y los años subsiguientes puede llegar a realizarse mediante una aproximación de la aplicación de la teoría cuántica a los fenómenos sociológicos.

La teoría cuántica impuso una fatigosa ruptura con el pasado: una ruptura que iba más allá del significado científico y penetraba en el ámbito de la filosofía y quizás también en el del arte, puesto que precisamente en esos mismos años, la pintura pasa del impresionismo al abstractismo, es decir a una progresiva fragmentación y descomposición del universo real.

Según la opinión del científico Rudolf Peierls, ex catedrático de física de la Universidad de Oxford quien considera a la biología como una rama de la física en el mismo sentido que considera a la química como una parte de la física, nuevos aspectos emergen cuando las estructuras llegan a ser suficientemente complejas como lo son los seres vivientes. En este sentido considera que no se habrán completado los fundamentos de la biología hasta que no se haya enriquecido el conocimiento de la física con algunos conceptos innovadores.
“Los Cuantos”

La palabra “cuanto” significa “cantidad” o “porción discreta”. En nuestra escala diaria estamos acostumbrados a la idea de que las propiedades de un objeto, tales como su tamaño, color, peso, temperatura y movimiento son todas ellas cualidades que pueden variar de un modo suave y continuo.

Sin embargo, a escala atómica las cosas son muy diferentes. Las propiedades de las partículas atómicas y subatómicas como su movimiento, energía y espín no siempre presentan variaciones suaves, sino que, por el contrario, pueden variar en cantidades discretas.

Una de las hipótesis de la mecánica clásica era que las propiedades de la materia varían de modo continuo. Cuando los físicos descubrieron que esta noción no es cierta a escala atómica, tuvieron que desarrollar un sistema de mecánica completamente nuevo (la mecánica cuántica) para tener en cuenta al comportamiento atómico de la materia. La teoría cuántica es entonces, la teoría de la que deriva la mecánica cuántica.

Si se tiene en cuenta el éxito de la mecánica clásica en la descripción de la dinámica de toda clase de objetos, desde bolas de billar hasta estrellas y planetas, no es sorprendente que su sustitución por un nuevo sistema mecánico fuera considerada como una desviación revolucionaria. Sin embargo los físicos probaron inmediatamente la validez de la teoría mediante la explicación de un amplio rango de fenómenos que, de otro modo, serían incomprensibles; tanto que la teoría cuántica es frecuentemente citada como la teoría más exitosa jamás creada.

La teoría cuántica tuvo sus orígenes vacilantes en el año 1900, con la publicación de un artículo por el físico alemán Max Planck, quien dirigió su atención a lo que era todavía un problema no resuelto en la física del siglo XIX y que concernía a la distribución entre diversas longitudes de onda de la energía calorífica radiada por un cuerpo caliente. Bajo ciertas condiciones ideales, la energía se distribuye de un modo característico, que Planck demostró podía ser explicado suponiendo que la radiación electromagnética era emitida por el cuerpo en paquetes discretos a los que llamó “quanta”. La razón de este comportamiento espasmódico era desconocida y simplemente tenía que aceptarse  tal como ocurría.

En 1913 Niels Bohr propuso que los elementos atómicos están también “cuantizados”, en el sentido que pueden permanecer en ciertos niveles fijo sin perder energía. Si esto ocurriera en forma continua, los electrones atómicos, que están orbitando en torno al núcleo, perderían rápidamente energía y caerían siguiendo espirales hacia éste. Por lo tanto, cuando los electrones saltan de un nivel a otro, se absorbe o emite energía electromagnética en cantidades discretas. Estos paquetes de energía son fotones.

La razón por la que los electrones habrían de comportarse de este modo discontinuo fue puesta de manifiesto cuando se descubrió la naturaleza ondulatoria de la materia. Los electrones, como los fotones, pueden comportarse como ondas y como partículas, dependiendo de las circunstancias de cada caso. Pronto quedó claro que no sólo los electrones, sino todas las partículas subatómicas están sujetas a un comportamiento similar.

Las leyes tradicionales de la física fracasaban completamente en el micromundo de los átomos y de las partículas subatómicas. Hacia la mitad de la década de 1920 la mecánica cuántica había sido desarrollada independientemente por Erwin Schrodinger y Werner Heisenberg para tener en cuenta esta dualidad onda – partícula.

La nueva teoría tuvo un éxito espectacular. Inmediatamente ayudó a los científicos a explicar la estructura de los átomos, la radioactividad, el enlace químico y los detalles de los espectros atómicos (incluyendo los efectos de los campos eléctricos y magnéticos). 

Elaboraciones ulteriores de la teoría por Paul Dirac, Enrico Fermi, Max Born y otros condujeron, con el tiempo, a explicaciones satisfactorias de la estructura y reacciones nucleares, las propiedades eléctricas y térmicas de los sólidos, la superconductividad, la creación y aniquilación de partículas elementales de materia, la predicción de la existencia de antimateria, la estabilidad de ciertas estrellas colapsadas y mucho más. La mecánica cuántica hizo también posible un importante desarrollo en la instrumentación práctica, que incluye al microscopio electrónico, el láser y el transistor.

Experimentos atómicos tremendamente delicados han confirmado la existencia de sutiles efectos cuánticos hasta un asombroso grado de exactitud. Ningún experimento conocido ha contradicho las predicciones de la mecánica cuántica en los últimos cincuenta años.

Este catálogo de triunfos singulariza a la mecánica cuántica como una teoría verdaderamente notable: una teoría que describe correctamente el mundo a un nivel de precisión y detalles sin precedentes en la ciencia. Hoy en día, la gran mayoría de los físicos profesionales emplean la mecánica cuántica con completa confianza.

En el tradicional experimento de los fotones y el polarizador, cada vez que un fotón pasa a través del polarizador nos encontraremos en una situación paradójica. A un ángulo de 45°, dado que un fotón no puede dividirse en partes, cualquiera de ellos debe o bien pasar o bien quedar bloqueado dado que la luz transmitida tiene exactamente la mitad de intensidad que la luz original. Es decir que la mitad de los fotones deben ser transmitidos, mientras que la otra mitad quedan bloqueados. Pero ¿cuáles pasan y cuáles no?.

Como se supone que todos los fotones de la misma energía son idénticos y, por lo tanto, indistinguibles, nos vemos obligados a concluir que la transmisión de fotones es un proceso puramente aleatorio. Aunque cualquier fotón tiene una probabilidad del 50 % de pasar, es imposible predecir cuáles de ellos en particular lo harán. Solamente pueden darse las probabilidades.

La conclusión en al ámbito de la física es intrigante e incluso desconcertante. Antes del descubrimiento de la física cuántica se suponía que el mundo era completamente predictible, al menos en principio. En particular, si se realizaban experimentos idénticos, se esperaban resultados idénticos.

Pero en el caso de los fotones y el polarizador, podría muy bien ocurrir que dos experimentos idénticos produjeran resultados diferentes, de modo que un fotón pasa a través del polarizador y otro queda bloqueado.

Generalmente, hasta que no se lleva a cabo una observación no puede saberse cuál será el destino de un fotón dado.

En 1924 Louis Víctor Pierre Raymond De Broglie (premio Nobel de Física en 1929) presentó una tesis de doctorado titulada “Investigaciones sobre la teoría de los cuantos” en la cual exponía una hipótesis muy audaz: si las ondas electromagnéticas estaban formadas por partículas ¿no podrían las partículas, a su vez, ser ondas electromagnéticas?. De Broglie extiende al ámbito de la materia, la dualidad partícula - onda, verificada con respecto a la luz. Había trabajado con radioondas y era un profundo conocedor de la música de cámara y comenzó a considerar el átomo como una suerte de instrumento musical, el cual, según como esté construido, puede emitir cierta nota fundamental y una secuencia de tonos. Por ese entonces, las órbitas electrónicas de Bohr ya se habían impuesto como elementos para identificar los distintos estados cuánticos de un átomo: por lo tanto, él las asumió como esquema básico para su modelo de ondas. Imaginó que cada electrón, al moverse por una órbita dada, iba acompañado de algunas misteriosas “ondas pilotos” (denominadas hoy ondas de De Broglie), distribuidas a lo largo de la órbita misma. La primera órbita cuántica llevaba una onda; la segunda, dos; la tercera, tres; y así sucesivamente.

Así pues, el electrón dejó de ser una partícula. Se prefirió considerarlo como una onda, como una vibración de energía. De Broglie supuso que los electrones fueran minúsculas condensaciones de energía dentro de la onda que los transportaba, sometidas a una turbulencia continua que las hacía saltar de una trayectoria a otra, pero siempre en el interior de la onda misma.

Este modelo ya no tenía nada de la estructura planetaria como lo había planteado el físico neozelandés Ernest Rutherford (Premio Nobel en 1908). Se parecía, en todo caso, a una serie de ondas concéntricas, vibrantes, con un diámetro cada vez mayor a medida que se alejaban del núcleo, y cada una de ellas representaba la onda de vibración del electrón en su órbita. Era una solución revolucionaria acorde con los nuevos datos experimentales.

John Bell, físico teórico en el Centro Europeo de Investigación Nuclear (CERN) de Ginebra, fue calificado por el físico de partículas del Berckeley Laboratory, Henry Stapp, por su Teorema de Bell como el resultado más profundo de la ciencia. Bell dice que puede verse en las ecuaciones de la Teoría de  De Broglie que cuando sucedía algo en un punto las consecuencias se extendían inmediatamente sobre todo el espacio.

Estas ideas implican la existencia de un elemento de incertidumbre en el micromundo de los fotones, átomos y otras partículas. En 1927, Werner Heisenberg (Premio Nobel en 1932) cuantificó esta incertidumbre en su famoso principio de incertidumbre. 

Una forma de expresar el principio se refiere a los intentos de medir la posición y el movimiento de un objeto cuántico simultáneamente. Específicamente, si, por ejemplo, tratamos de localizar muy precisamente un electrón, nos vemos forzados a renunciar a la información sobre su momento.

Recíprocamente, podemos medir el momento del electrón con mucha precisión, pero entonces  su posición queda indeterminada. El mero acto de tratar de fijar un electrón en un lugar específico introduce una perturbación incontrolable e indeterminada en su movimiento y viceversa. Más aún, esta ineludible restricción sobre nuestro conocimiento de la posición y el movimiento de un electrón no es meramente consecuencia de una falta de destreza experimental: es inherente a la naturaleza. Está claro que el electrón sencillamente no posee posición y momento simultáneamente.

El nombre de Heisemberg permanece ligado a su famoso principio de incertidumbre por el cual la posición y la velocidad de una misma partícula no pueden ser determinadas con precisión en el mismo instante. Cuanto más exacto sea uno de los dos parámetros tanto menos exacto será el otro.

El principio de incertidumbre debilitó el principio clásico de causalidad, base de toda la cosmovisión determinista y provocó controversias muy encendidas..

A escala sociológica

Si bien muchos científicos ya han visto la dificultad de llevar a otras escalas las explicaciones que son útiles para la escala atómica y subatómica, se complica y se entra en el campo filosófico cuando estas  teorías son llevadas por ejemplo al nivel biológico.

Aún más podría serlo llevarla a la escala sociológica. Este escrito es una propuesta para quizás poder darnos una explicación de los fenómenos que vemos que ocurren a nuestro alrededor: en las personas, las organizaciones y las sociedades.

Según el comentario de Felipe Fernández de la novela Mantra, de reciente publicación, cuyo autor es Rodrigo Fresán, los personajes y las situaciones establecen conexiones casi invisibles entre sí (que algunos juzgarán forzadas) y obedecen a la teoría cuántica, según la cual existe un infinito número de mundos paralelos al nuestro y todo se relaciona con todo.

Dice Deepack Chopra en La trascendencia del silencio: “es el punto desde el cual la conciencia humana cruza los límites cuánticos; es decir, abandona el mundo material y se sumerge en una región compuesta de energía e información, más allá del tiempo y el espacio. Actualmente, la física cuántica revela el universo como una red invisible en el cual todo está conectado y va fundiendo en lenta alquimia ciencia con espiritualidad. No obstante, eso todavía no ha ocurrido”.

Cómo ha cambiado esa posibilidad de relacionarnos entre las personas, organizaciones, comunidades, países ?

Hay elementos como la comunicación y la información que se han visto incrementados en gran magnitud en la última década con la aplicación de la informática.

Según declaró Niels Bohr la física no nos dice nada de lo que es, sino de lo que podemos comunicarnos sobre el mundo. Una profunda consecuencia de las ideas de Bohr es que se altera el tradicional concepto occidental de la relación entre macro y micro, el todo y sus partes. Bohr aseguró que para que tenga sentido hablar de lo que un electrón está haciendo, antes debe especificarse el contexto experimental total. Así, la realidad cuántica del micromundo está inextrincablemente ligada con la organización del macromundo. En otras palabras, la parte no tiene sentido excepto en relación con el todo.

Este carácter holístico de la física cuántica ha encontrado también una favorable acogida entre algunos filósofos y religiosos. En los primeros momentos de la teoría cuántica muchos físicos, incluyendo a Erwin Schrodinger, se apresuraron  a trazar un paralelismo entre el concepto cuántico del todo y la parte y el concepto oriental tradicional de la unidad armónica de la naturaleza.

La construcción del significado ha sido un tema fundamental de estudio por parte de los filósofos. Según Follesdal, filósofo noruego de la Universidad de Stanford, dice que significado es “el producto conjunto de toda evidencia disponible para aquellos que se comunican”.


Comunicación e información activa

La idea esencial es la comunicación. Si vemos algo, pero no estamos seguros de si es realidad o sueño, no hay mejor verificación que el comprobar si alguien más lo ha notado y puede verificar las observaciones. Esto es esencial para distinguir entre realidad y sueños. Pero otra cuestión es cómo convertimos esto en algo empírico. Podemos apoyarnos en el trabajo y los hallazgos del gran genetista y estadístico R. A. Fisher. Estos datan de 1922, cinco años antes del principio de incertidumbre y de la perspectiva moderna de la teoría cuántica. Estaba estudiando la composición genética de las poblaciones en lo que se refiere a la probabilidad de ojos azules, de ojos verdes, de ojos marrones. Fisher renunció a utilizar estas probabilidades como una manera de distinguir  una población de otra y adoptó en su lugar las raíces cuadradas de las probabilidades o lo que él llamó las amplitudes de probabilidad. En otras palabras, descubrió que la amplitud de probabilidad mide la distinguibilidad.

La distinguibilidad constituye el punto central en el establecimiento de lo que llamamos conocimiento o significado.

Deberíamos lograr la “distinguibilidad” de nuestras organizaciones de salud para que ellas tengan un “significado”. De hecho, aquéllas que han logrado distinguirse, lograron un significado para la comunidad que asisten.

El concepto de significado lo podemos describir como un producto que es el conjunto de toda la información intercambiada entre los que se comunican. Y esa información se retrotrae a un conjunto de muchos fenómenos cuánticos elementales.

Existe un área donde nuestras observaciones crean la realidad, como es en el de las relaciones humanas: cuando las personas se tornan conscientes unas de otras y se comunican crean la realidad de la sociedad.

La noción de información activa propuesta por David Bohm, ex catedrático de física teórica en el Bribeck College de Londres, ya nos es familiar en las computadoras. Si alguien grita “fuego” todo el mundo se movería; así pues en los sistemas vivientes inteligentes y en las computadoras, la información activa es un concepto útil.

La teoría ortodoxa dice que no puede predecirse de hecho cómo llegará cada electrón a la pantalla. Sin embargo, lo que hace el potencial cuántico es capacitarnos para calcular el conjunto de trayectorias individuales que dan lugar al patrón de interferencias. Se puede, por lo tanto, mirar la forma del potencial cuántico a partir de los cálculos que se utilizan. El potencial cuántico contendrá cosas como la anchura de las rendijas, la distancia entre éstas y el momento de la partícula; en otras palabras, parece tener alguna información acerca del entorno de la partícula. Es ésta la razón por la que se tiende a considerar que el potencial cuántico surge de un campo que es más un campo de información que uno físico.

En el mundo real de la física cuántica, ningún fenómeno elemental es un fenómeno hasta que el mismo es registrado.

Tradicionalmente pensamos que la evolución de los proyectos en cuanto a la obtención de sus metas y objetivos tienen una evolución lineal. Lo planeado, a veces se cumple, y nos sorprendemos cuando ello no ocurre. Es así como una vez más la realidad nos impone cambios, idas y venidas, avances y retrocesos inesperados en “saltos” o “cuantos” tal como se comportan en la escala subatómica.

Al retroceder por la coordenada de los objetivos, volvemos hacia atrás en la línea del tiempo. Este fenómeno estamos observando en muchas organizaciones donde debido a “saltos cuánticos” tenemos la sensación y muchas veces la certeza que hemos retrocedido en el tiempo.



Pasamos a un estado distinto de energía para poder recomenzar los ciclos en concordancia con la teoría ondulatoria de los electrones.

Debemos tener una “masa crítica” necesaria de energía para poner en marcha los procesos de cambios en las organizaciones y aumentarla en forma “cuántica” para que estos procesos sean sostenibles y tengan vigor y permanencia en el tiempo.

Como señalaba Huxley, en 1959, la aceptación de cualquier innovación pasa por tres fases. En la primera se la ridiculiza, en la segunda se le reconoce algún valor y es en la tercera, cuando la comunidad científica la adopta mayoritariamente. Por otra parte siempre existen personas que cuestionan la originalidad de tal contribución y destacan que ya otros lo habían descubierto antes.

En 1935, Erwin Schrodinger, uno de los fundadores de la mecánica cuántica, había percibido cómo los problemas filosóficos de una superposición cuántica podrían aparecer a nivel macroscópico. Ilustró este punto, con un experimento ideal, que tiene que ver con un gato, conocido como “La paradoja del gato de Schrodinger”. 





Un gato está encerrado en una cámara de acero, junto a un diabólico dispositivo. En un contador Geiger hay un pedacito de una sustancia radiactiva, tan pequeño, que quizá en el transcurso de una hora se desintegre un átomo, pero también podría ocurrir la posibilidad con igual probabilidad que ninguno se desintegrara; si ocurre lo primero, se produce una descarga en el tubo y mediante un relay se libera un martillo que rompe un pequeño frasco de ácido cianhídrico. Si se ha dejado que el sistema completo funcione durante una hora, diríamos que el gato vivirá si en ese tiempo no se ha desintegrado ningún átomo. La primera desintegración atómica lo hubiera envenenado.

En nuestras mentes está absolutamente claro que el gato debe estar vivo o muerto. El sistema total dentro de la caja se halla en una superposición de dos estados: uno con un gato vivo y otro con un gato muerto. 

Podríamos concluir que la infeliz criatura permanece en un estado de animación suspendida hasta que alguien mira al interior de la caja para verificarlo, en cuyo momento es proyectado a la vida plena o bien instantáneamente liquidado.

Prefiero la visión del “gato vivo” y espero que los próximos “saltos cuánticos” de nuestra sociedad permitan concretar el objetivo de aplicar la informática con todo su potencial en el área de Salud con la aplicación de la comunicación y la información activa para beneficio de los pacientes y de toda la comunidad.

Para finalizar y citando a Albert Einstein "Es más fácil desintegrar un átomo que un pre-concepto".


Publicado en la Revista de Informática Médica Nº 11:48. Buenos Aires. Argentina. 2002

 
El autor es:

Médico egresado de la Universidad de Buenos Aires

Consultor en Informática Médica y Gestión en Salud

Especialista en Administración Hospitalaria

Docente en diversas Maestrías en Gerenciamiento y Administración de Sistemas y Servicios de Salud

Médico Del Hospital Manuel Belgrano. Buenos Aires. Argentina.






Ultimo Artículo publicado

IA en China: computadoras bajo el agua del mar

por Eduardo Rodas Médico y Periodista Científico 6 de abril de 2025 IA EN CHINA: COMPUTADORAS BAJO EL AGUA DEL MAR China ha dado un paso s...