TU NO ESTAS SOLO O SOLA EN ESTE MUNDO si te gustó un artículo, compártelo , envialo a las Redes sociales , FACEBOOK, TWITTER

jueves, 17 de marzo de 2011

tecchile: El virus informático cumple 40 años

El virus informático cumple 40 años

Jueves 17/03/2011 por Lisandro Pardo. Vista 1002 veces
  • 5 Voto Posivito
  • 0 Voto Negativo
El virus informático cumple 40 años - Virus informático

Hoy su existencia ya se da por asumida. El combatirlos es una reacción natural en todo usuario. Sus consecuencias son bien conocidas, y evolucionan con cada día que pasa. A pesar de la fortaleza actual que tienen hoy los virus de ordenador en sus múltiples formatos y versiones (de allí el uso recurrente y general del término malware), incluso ellos tuvieron un comienzo, uno que está bien definido, y que fue mucho más inocuo de lo que podemos imaginar. El virus informático cumple cuatro décadas de edad. ¿Qué podemos decir que sea adecuado para la ocasión? ¿Feliz cumpleaños?


  • Entradas con Descuento
    Tus entradas para conciertos con descuentos de hasta el 90% Groupalia.com/Conciertos
  • El año era 1971. El programa Apolo seguía con sus andanzas en la Luna, se nos iba Jim Morrison, se inauguraba el Walt Disney World, e Intel fabricaba el primer microprocesador disponible comercialmente, el 4004. Internet todavía no existía, pero su esencia básica sí: ARPANET llevaba unos dos años operando, y había aproximadamente dieciocho nodos conectados. Fue entonces que un tal Bob Thomas en BBN Technologies decidió demostrar el concepto de "aplicación móvil". Y así fue como nació "Creeper". La traducción de "creeper" tiene muchos significados, aunque una de los más conocidas se perfila con la idea de un "acechador", alguien que hace cosas extrañas y perturbadoras como vigilar constantemente por una ventana u observar a una persona mientras duerme. La idea del virus informático aún no se había desarrollado, pero el comportamiento del Creeper era definitivamente como uno. Ingresaba al sistema remoto, publicaba el mensaje "Soy el Creeper, ¡atrápame si puedes!", y luego saltaba a otro sistema. No se copiaba, sino que se trasladaba. Y con eso, quedó comprobado que una aplicación podía "moverse" entre sistemas.

    El Creeper hacía de las suyas entre los PDP-10 - Virus informático El Creeper hacía de las suyas entre los PDP-10

    Cuarenta años después estamos deseando que este señor Thomas jamás hubiese creado al Creeper. De hecho, fue necesario desarrollar al "Reaper" para borrar al Creeper, lo que en cierta forma le da a virus y antivirus el mismo año de nacimiento. Pero con deseos no hacemos nada, y la historia ciertamente no se termina ahí, sino que en realidad comienza. En estos días, un virus informático es interpretado por los usuarios de la misma forma que un resfriado: Uno puede defenderse lo mejor que puede, pero tarde o temprano, se lo debe enfrentar. Sin embargo, el perfil general de un virus era muy diferente hace unos años atrás. Quienes desarrollaban un virus, tenían como simple objetivo hacer una broma, demostrar sus habilidades, o en algunos casos, realizar una declaración política. Ahora, la raíz de la existencia del malware se basa en el lucro. Internet es grande, y hay demasiado terreno para cubrir, pero al mismo tiempo, se interpreta que hay mucho que "robar" de las terminales afectadas. Esto los hace más complejos, más elaborados, y mucho más peligrosos.

    Creeper fue el primero, y otros le siguieron, al principio en ambientes controlados. Pero el primer virus que se considera "salvaje" y que operaba por fuera de su entorno original de desarrollo fue el "Elk Cloner", creado por Rick Skrenta en el año 1982, con apenas quince años de edad. Afectaba a discos flexibles que se utilizaban en sistemas Apple II, y fue el primer virus en adoptar el modo de infección por sector de inicio. Cuando el ordenador se iniciaba con un disquete infectado, el virus se copiaba en la RAM e infectaba cada sector de inicio en cada nuevo disquete que se introdujera en la unidad, esparciéndose rápidamente. La inexistencia de un antivirus per se, hacía que el proceso de remoción del Elk Cloner fuera un poco rebuscado en ese entonces. Para Skrenta no fue más que "una tonta broma", pero las infecciones por sector de inicio serían adoptadas por muchos otros virus en los años siguientes.

    Con sus unidades duales, las Apple II eran caldo de cultivo para el Elk Cloner - Virus informático Con sus unidades duales, las Apple II eran caldo de cultivo para el Elk Cloner

    Dos virus que tuvieron una atención especial durante la década de los '80 fueron el Jerusalem y el Stoned. Ambos compartieron el mismo año de nacimiento (1987), pero sus objetivos eran muy diferentes. En el caso del Jerusalem, el virus podía arruinar a todo archivo ejecutable en un sistema infectado cada viernes 13 del calendario, e incluso podía afectar negativamente el rendimiento del ordenador. Para muchos, se trató del primer virus "destructivo" que operó a gran escala, frase que tomamos con pinzas teniendo en cuenta la cantidad de ordenadores activos en 1987, pero justificada debido a su enorme cantidad de variantes. En lo que se refiere al Stoned, su mensaje característico "Your PC is now Stoned!" todavía es muy recordado, al igual que su petición para legalizar la marihuana. El Stoned tuvo su amplia cuota de variantes, una de ellas cambiando el mensaje clásico por una referencia al 4 de junio de 1989, una de las fechas de la Masacre de la Plaza Tiananmen en China.



    La década de los '90 fue testigo de un incremento importante en la cantidad de virus, pero en lo personal recuerdo a dos que supieron dejar una huella propia en esos años. El Michelangelo fue todo un caso. La primera vez que se lo detectó fue en 1991, y se esperaba que fuera el causante de una especie de "día del juicio digital", borrando la información de millones de ordenadores alrededor del mundo. El virus se activaba el 6 de marzo, día del nacimiento de Miguel Ángel, sobreescribiendo sectores en disquetes y discos duros. Los medios realizaron una cobertura extensa, incluyendo por supuesto la inevitable pizca de paranoia que se le agrega a esta clase de noticias. Finalmente, los casos de pérdida de información fueron apenas una mínima fracción de los supuestos millones que vaticinaban los noticieros, y el Michelangelo rápidamente pasó al olvido. En un aspecto mucho más preocupante, a mediados de 1998 hizo acto de presencia el virus CIH, cuya primera versión se activaría el 26 de abril de 1999, coincidiendo con la fecha de la catástrofe nuclear en Chernobyl. En el peor de los casos, el CIH podía llenar el primer megabyte del disco de inicio con ceros, e incluso modificar el BIOS del ordenador, inutilizándolo por completo de forma efectiva. Si bien era posible restaurar a un ordenador tras un ataque de este virus, no era un proceso agradable.



    Finalmente llegamos al siglo XXI, y con él llegó la "Era del Caos", ya que la definición clásica de virus informático pasó a ser mucho más compleja de aplicar. El gusano ILOVEYOU dejó en evidencia qué tan eficiente podía ser un e-mail para esparcir un virus. En 2003, Windows 2000 y Windows XP fueron puestos en jaque por la aparición del archifamoso gusano Blaster, que podía incluso apagar el ordenador sin intervención del usuario. Esto llevó a cambios profundos en los sistemas de Microsoft, y a una mayor consciencia en relación con los firewalls como medida de seguridad. El Welchia era un gusano por definición, pero en realidad lo que hacía era quitar al Blaster del sistema y actualizar Windows, razón número uno por la cual el Blaster pegó tan duro. En 2004 la masacre siguió con el Sasser y el MyDoom. Zotob marcó el inicio del "malware por lucro" en 2005, y la introducción de las botnets como plataformas de malware.

    ¿Recuerdan esto? Estoy seguro que sí... - Virus informático ¿Recuerdan esto? Estoy seguro que sí...

    En el primer mes de 2007, el gusano Storm era responsable por el ocho por ciento del malware a nivel mundial. Un año después nos resultó imposible olvidar al Conficker, que generó pérdidas millonarias alrededor del globo, y resultó ser un hueso extremadamente duro de roer. Ahora, somos testigos de los primeros indicios de guerra digital. El troyano conocido como Stuxnet tenía como blanco específico los sistemas de Control de Supervisión y Adquisición de Datos de Siemens, utilizados en territorio iraní en desafío al embargo impuesto a ese país en 2006 debido a su programa de enriquecimiento de uranio. El 60 por ciento de las infecciones causadas por Stuxnet se localizaron en Irán, y provocó retrasos en la capacidad operativa de varias centrifugadoras de gas.

    El Stuxnet se concentró sobre componentes Siemens de forma muy precisa - Virus informático El Stuxnet se concentró sobre componentes Siemens de forma muy precisa

    Estamos en camino de abrir el cuarto mes del año 2011. ¿Que es lo que tienen preparados para nosotros los virus? Los expertos coinciden en que habrá una aceleración en las infecciones de malware sobre dispositivos móviles como tablets y teléfonos inteligentes, al mismo tiempo que buscarán aprovechar vulnerabilidades presentes en diferentes redes sociales. Y el número seguirá creciendo. A principios de la década de los '90, los virus registrados no excedían los mil cuatrocientos ejemplares. Hoy, tenemos más de 200 millones de variantes, y se está haciendo cada vez más difícil deshacerse de ellas. Y todo, con aquel pequeño Creeper saltarín como punto de origen. Si los virus quieren tener un feliz cumpleaños, que lo tengan, pero si se ahogan con el pastel, nos harán a todos un gran favor


Fuente  http://www.neoteo.com/el-virus-informatico-cumple-40-anos?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+Neoteo+%28Neoteo+RSS%29
Difundan libremente  este artículo
CONSULTEN, OPINEN , ESCRIBAN .
Saludos
Rodrigo González Fernández
Diplomado en "Responsabilidad Social Empresarial" de la ONU
Diplomado en "Gestión del Conocimiento" de la ONU

 CEL: 93934521
Santiago- Chile
Soliciten nuestros cursos de capacitación  y consultoría en GERENCIA ADMINISTRACION PUBLICA -LIDERAZGO -  GESTION DEL CONOCIMIENTO - RESPONSABILIDAD SOCIAL EMPRESARIAL – LOBBY – COACHING EMPRESARIAL-ENERGIAS RENOVABLES   ,  asesorías a nivel nacional e  internacional y están disponibles  para OTEC Y OTIC en Chile

tecchile: EE.UU. tiene pocas defensas contra un ataque cibernético

EE.UU. tiene pocas defensas contra un ataque cibernético

Militares a cargo de seguridad cibernética en Estados Unidos

El Pentágono dice que las redes del gobierno sufren millones de ataques cada día.

Las fuerzas militares estadounidenses no tienen el personal o los recursos para defender el país adecuadamente de un ciberataque, reconoció el jefe del comando de guerra cibernética del Pentágono.

"Una crisis rápidamente pondría en aprietos a nuestras ciberfuerzas", dijo al congreso el general Keith Alexander.

Estados Unidos dice que los sistemas gubernamentales son atacados millones de veces al día.

Pero las disputas sobre presupuestos están generando retrasos en un nuevo sistema de ciberprotección ordenado por el Departamento de Seguridad Interna.

No obstante, algunos dicen que la amenaza de ciberguerra ha sido considerablemente exagerada.

"Adversarios potenciales"

El general Alexander dice que "no podemos permitir que el ciberespacio sea un santuario donde adversarios reales y potenciales puedan agrupar fuerzas y capacidades contra nosotros y nuestros aliados. No es un riesgo hipotético".

Funcionarios estadounidenses dicen que criminales, terroristas y otras naciones están volviéndose más capaces de penetrar redes estatales y privadas para espiar, robar datos o dañar infraestructura crítica.

Una crisis rápidamente pondría en aprietos a nuestras ciberfuerzas

General Keith Alexander

Sin embargo, en declaraciones a la BBC hace unos días, uno de los principales expertos en seguridad, Bruce Schneier, aseguró que la retórica emotiva alrededor de la "ciberguerra" no se ajustaba a la realidad.

"Lo que estamos viendo no es ciberguerra sino un aumento en el uso de tácticas similares a la de la guerra y eso nos confunde. No tenemos buenas definiciones acerca de lo que constituye la ciberguerra, y cómo debe pelearse", aseguró Schneier.


Fuente:
Difundan libremente  este artículo
CONSULTEN, OPINEN , ESCRIBAN .
Saludos
Rodrigo González Fernández
Diplomado en "Responsabilidad Social Empresarial" de la ONU
Diplomado en "Gestión del Conocimiento" de la ONU

 CEL: 93934521
Santiago- Chile
Soliciten nuestros cursos de capacitación  y consultoría en GERENCIA ADMINISTRACION PUBLICA -LIDERAZGO -  GESTION DEL CONOCIMIENTO - RESPONSABILIDAD SOCIAL EMPRESARIAL – LOBBY – COACHING EMPRESARIAL-ENERGIAS RENOVABLES   ,  asesorías a nivel nacional e  internacional y están disponibles  para OTEC Y OTIC en Chile

¿Cuáles son las empresas más éticas?

¿Cuáles son las empresas más éticas?

Imagen del post ¿Cuáles son las empresas más éticas?

Por: Redacción de Baquía

Redacción de Baquía

17 Mar 2011 | 0 comentarios

Un estudio sobre las empresas más éticas señala a un inesperado ganador en el sector de las nuevas tecnologías, o no tan inesperado cuando recordamos a qué se dedica ahora su antiguo jefe.

El Instituto Ethisphere de Nueva York afirma que una de las 110 empresas más éticas del mundo es Microsoft, para sorpresa de los que aún recuerden cuando mencionar su nombre era inspirar imágenes de un monopolio todopoderoso y de grandeza incontestable, más que de obras de caridad y preocupaciones por el karma.

La lista tiene en cuenta los programas internos de cada empresa y los compara con los de otras compañías de su mismo sector, de modo que en unos negocios es más difícil sobresalir que en otros. En lo referente a nuevas tecnologías, Microsoft no es el único nombre conocido.

Repartidas por diferentes categorías encontramos a eBay, Hitachi, Adobe, Cisco, Salesforce.com y Symantec. En la categoría de electrónica de consumo, el el Instituto Ethisphere menciona a la sueca Electrolux, la japonesa Ricoh y la estadounidense Xerox.

Entre las grandes ausentes de las tecnológicas están Oracle, Hewlett-Packard, Intel, IBM y la todopoderosa Apple, que parece haber ocupado el antiguo lugar de Microsoft cuando se trata de investigaciones de monopolio o de imponer límites a usuarios y socios, dada su obsesión por controlar desde el contenido que se reproduce en sus dispositivos hasta las herramientas que utilizan los desarrolladores independientes para crear aplicaciones.

Tampoco está Google, que pese a su lema "Don't be evil" está perdiendo la imagen impoluta que tenía entre conflictos de privacidad y dudas en cuestiones de competencia.

Entre las cosas que se consideran para elaborar la clasificación, que no tiene un número establecido de puestos ni nombra a un número uno, están la ciudadanía y responsabilidad corporativa, innovación que contribuya al bienestar público, liderazgo en su industria, historial legal, regulatorio y de reputación o que exista un programa interno de normas éticas.


Fuente:http://www.baquia.com/posts/2011-03-17-cual-es-la-empresa-mas-etica
Difundan libremente  este artículo
CONSULTEN, OPINEN , ESCRIBAN .
Saludos
Rodrigo González Fernández
Diplomado en "Responsabilidad Social Empresarial" de la ONU
Diplomado en "Gestión del Conocimiento" de la ONU

 CEL: 93934521
Santiago- Chile
Soliciten nuestros cursos de capacitación  y consultoría en GERENCIA ADMINISTRACION PUBLICA -LIDERAZGO -  GESTION DEL CONOCIMIENTO - RESPONSABILIDAD SOCIAL EMPRESARIAL – LOBBY – COACHING EMPRESARIAL-ENERGIAS RENOVABLES   ,  asesorías a nivel nacional e  internacional y están disponibles  para OTEC Y OTIC en Chile

TECCHILE: expertos echan de menos un plan de contingencia entre los isp en caso de emergencias

 

expertos echan de menos un plan de contingencia entre los isp en caso de emergencias

Continuidad de Internet en Chile no está asegurada en caso de un nuevo terremoto

En Chile, el sismo del 27 de febrero impidió el acceso a la web por horas. En Japón siempre estuvo disponible.


David Nogales Toledo



El violento terremoto que afectó a Japón dejó al descubierto dos cosas en materia de telecomunicaciones en ese país: que el sistema de alerta temprana funcionó correctamente, avisando a muchos que se aproximaba un tsunami; y que las redes celulares terminaron por colapsar tras las millones de llamadas luego del sismo.

Al margen del sistema de alerta temprana -que en Chile está en proceso de implementación-, la saturación de las redes móviles fue un fenómeno que también se observó acá tras el terremoto del 27 de febrero de 2010.

Sin embargo, los japoneses tuvieron una ventaja: Internet. En efecto, en ese país la red casi no sufrió interrupciones, no así en Chile donde estuvo "caído" durante un largo periodo de tiempo.

¿Qué pasó? Uno de los dos enlaces internacionales (el data center de Global Crossing) falló debido a la falta de suministro eléctrico, impidiendo el acceso a miles de personas que ni sintieron el terremoto. Esta situación, sumado a más problemas de energía en otros centros, agudizó la falla. Mediciones de NIC Labs, estimaron que un 64% del "Internet chileno" estuvo inalcanzable desde fuera del país, especialmente entre las 4:00 y 11:30 de ese 27 de febrero. 
En vista de eso ¿qué pasaría si otro desastre vuelve a azotar Chile? 



Los avances


La Ley de Reconstrucción y Emergencias de Telecomunicaciones aprobada en noviembre pasado apunta a evitar otro colapso. Sin embargo, para algunos esta reglamentación deja "un poquito fuera" a Internet.

Para el académico del Departamento de Ciencias de la Computación de la U. de Chile, José Miguel Piquer, hay una especie de vacío respecto a la mayor coordinación que debiera existir entre los ISP en escenarios de emergencia.

Aunque valora el esfuerzo de la Subtel por intentar que un nuevo enlace llegue a Chile, dijo que es esencial que haya un plan de contingencia que evite el corte de Internet, recurso que, para él, es el "verdaderamente importante" desde el punto organizativo en caso de emergencias.

"Si los privados nunca entienden esas cosas, finalmente hay que obligarlos por ley", sostiene Piquer.



Medidas alternativas


Aunque no tiene que ver precisamente con emergencias, en el sector privado hay iniciativas que van en la línea de potenciar Internet. Claro, por ejemplo, anunció inversiones por US$ 500 millones en Chile e incluye una red de fibra óptica hasta la Patagonia.

Sin embargo, el profesor del Departamento de Energía de la U.C., Miguel Ríos, condiciona el éxito de Internet a los data center que son los que, finalmente, permiten la circulación de los datos, pero que requieren mucha energía. 
"Las redes pueden estar intactas, pero si caen estos data center la gente no tiene acceso", sostiene el experto. 
Según Global Crossing, una práctica común para los enlaces de "alta criticidad" en casos de desastres es generar rutas alternativas, por caminos diversos y totalmente independientes para disminuir al mínimo la posibilidad de pérdida total de conectividad
En ese contexto, J.M. Piquer plantea la creación de una red pública de Internet "muy tolerante" a fallas y exclusiva para "interconectar" servicios de emergencia (Onemi, Carabineros, La Moneda, Bomberos, etc). 
"Podría ser una red (que funcione) a través de (las frecuencias de) radio, o por señales propias telefónicas, pero basada sobre los mismos protocolos de Internet", plantea el experto. 



Fuente:DF
Difundan libremente  este artículo
CONSULTEN, OPINEN , ESCRIBAN .
Saludos
Rodrigo González Fernández
Diplomado en "Responsabilidad Social Empresarial" de la ONU
Diplomado en "Gestión del Conocimiento" de la ONU

 CEL: 93934521
Santiago- Chile
Soliciten nuestros cursos de capacitación  y consultoría en GERENCIA ADMINISTRACION PUBLICA -LIDERAZGO -  GESTION DEL CONOCIMIENTO - RESPONSABILIDAD SOCIAL EMPRESARIAL – LOBBY – COACHING EMPRESARIAL-ENERGIAS RENOVABLES   ,  asesorías a nivel nacional e  internacional y están disponibles  para OTEC Y OTIC en Chile

TECCHILE: Assange: “Internet es la máquina de espionaje más grande en el mundo”

Assange: "Internet es la máquina de espionaje más grande en el mundo"

Julian Assange ha debatido durante unas horas en una charla con los estudiantes de la Universidad de Cambridge. En la misma, el fundador de WikiLeaks, actualmente en litigios por la extradición por delitos sexuales, debatió y se refirió a varios temas candentes en la actualidad. Assange habló sobre Internet y el poder que ejerce pero también se refirió a la fuerza de las redes sociales o la terrible situación actual que vive el soldado Bradley Manning, sospechoso de haber filtrado los cables a la organización.

El ex-hacker comenzó la charla debatiendo sobre la capacidad que tuvieron en sus orígenes las redes sociales como Facebook para que los gobiernos utilizaran el espionaje:

Hace tres o cuatro años no existía rebelión en Facebook por El Cairo. Los primeros atisbos en la red social fueron utilizados para que los participantes fueran interrogados y encarcelados por el régimen. De esta manera, mientras que Internet nos da la posibilidad de, a un nivel sin precedentes, saber lo que hacen los gobiernos, también es la máquina de espionaje más grande en el mundo

Assange mantiene que el uso de Internet ha transformado la tecnología para hacer más poderosos a los regímenes tiránicos:

Internet es una tecnología que no está favoreciendo la libertad de expresión, tampoco está favoreciendo a los derechos humanos. Mas bien es una tecnología que puede utilizarse para establecer un régimen totalitario de espionaje de una talla que jamás habíamos visto

Para Assange, la aparición de WikiLeaks ha ayudado a desencadenar la revuelta árabe en curso, además, dice que la liberación de los documentos oficiales diplomáticos de Estados Unidos han cambiado la dinámica en Tunez, transformando el régimen. Por último quiso mandar un mensaje esperanzador a Bradley Manning:"Nuestro apoyo a su difícil situación no se puede decir más alto", concluyó.


Fuente:
Difundan libremente  este artículo
CONSULTEN, OPINEN , ESCRIBAN .
Saludos
Rodrigo González Fernández
Diplomado en "Responsabilidad Social Empresarial" de la ONU
Diplomado en "Gestión del Conocimiento" de la ONU

 CEL: 93934521
Santiago- Chile
Soliciten nuestros cursos de capacitación  y consultoría en GERENCIA ADMINISTRACION PUBLICA -LIDERAZGO -  GESTION DEL CONOCIMIENTO - RESPONSABILIDAD SOCIAL EMPRESARIAL – LOBBY – COACHING EMPRESARIAL-ENERGIAS RENOVABLES   ,  asesorías a nivel nacional e  internacional y están disponibles  para OTEC Y OTIC en Chile

ENERGIA NUCLEAR: Preguntas frecuentes sobre radioactividad

Preguntas frecuentes sobre radioactividad

Es muy fácil entrar en pánico bajo situaciones de crisis y desinformación. Lo sucedido recién en Japón con la Planta Nuclear de Fukushima es un ejemplo latente de un tema que debemos intentar entender con sumo cuidado. Por eso hemos recopilado este puñado de, digamos, preguntas frecuentes con la esperanza de que encuentren respuestas útiles e informativas.

(Si encuentran inexactas o incompletas estas respuestas, por favor manifiéstenlo en los comentarios. La idea es mejorar este pequeño artículo y que sea de gran ayuda para todos.)

¿Cómo funciona la radiación nuclear?

Un átomo de Plata (Ag) será un átomo de plata con 47 electrones e igual cantidad de neutrones y protones por miles de millones de años. Hubo un tiempo en el que lo científicos pensaron que eso mismo aplica para todos los elementos de la naturaleza. Ahora sabemos que es un poco más complicado. Lo cierto es que buena parte de los elementos tiene varias formas, algunas más estables y abundantes que otras. Por ejemplo, la plata tiene "versiones" de 60 neutrones y otras de 62, ambas consideradas estables. Esas diferentes maneras de ser de los átomos son conocidas como isótopos. Y entre los isótopos, los hay que son radioactivos.

Pongamos un ejemplo más simple para entender la radiación nuclear. El Hidrógeno (H) tiene tres isótopos:

  1. Un electrón (carga negativa) y un protón (carga positiva). Muy estable y lo encontramos en el agua que bebemos.

  2. Un electrón, un neutrón y un protón. También llamado deuterio, es muy raro en la naturaleza, aunque estable.

  3. Un electrón, dos neutrones y un protón. Le llaman tritium, es aún más raro que el deuterio y es radioactivo. Basta reunir un puñado de átomos de tritium para observar que pronto se mezclarán para convertirse en átomos de Helio con dos protones y un neutrón.

Ese proceso de transformación, de pérdida de partículas e "identidad" es lo que técnicamente se llama decaimiento radioactivo cuyo efecto es la radioactividad. Como han podido ver, no todos los isótopos de un elemento son radioactivos. Los hay que sí, como el Uranio (U), que también es el elemento natural más pesado en poseer esa característica. El decaímiento radioactivo genera energía que en algunos casos es alta y muy inestable.

Si esta explicación sirvió para nada, sé que Beakman lo hará mejor.

¿Cuántos tipos de radioactividad existen?

Antes debemos saber que existen tres tipos básicos de decaimiento radioactivo causantes de la radioactividad:

  1. Decaimiento alfa: Cuando un átomo despide partículas alfa, es decir, dos protones y dos neutrones pegados entre sí.

  2. Decaimiento beta: Cuando un neutrón en el núcleo se convierte espontáneamente en un protón, un electrón y un antipartícula llamada antineutrino.

  3. Fisión espontánea: Cuando un átomo se parte en pedazos en vez de enviar partículas alfa o beta.

Lo neutrones pueden dispararse hacia otros átomos para hacerlos radioactivos. Esta técnica es utilizada en medicina nuclear, por ejemplo, y también en plantas nucleares. Ahora bien, son tres las principales formas de radioactividad categorizadas según su intensidad.

  1. Alfa: Poca energía. Viaja pocos centímetros en el aire y puede ser detenida por una hoja de papel o una mano. Los detectores de humo la utilizan.

  2. Beta: Mediana energía. Penetra aire y papel, aunque una placa de aluminio es suficiente para detenerla. Útil en imagenología médica.

  3. Gamma: Alta energía. Atraviesa aire, papel e incluso metal. En ocasiones sólo pueden ser absorbidos por centímetros de plomo o muchos metros de concreto. Son utilizados para la esterilización de equipo médico, así como en el tratamiento del cáncer.

¿Cuánta radioactividad es fatal?

Los datos que existen al respecto son empíricos. Una persona normal —de los EE.UU.— recibe 310 milirems al año proveniente de fuentes naturales. Una tomografía contribuye con 150 milirems, por ejemplo, y el número aumenta con los tiempos de exposición a la radiación electromagnética de la televisión, el monitor de la computadora, el horno de microondas, etc. Los trabajadores expuestos a radioactividad reciben como límite legal en los EE. UU. hasta 5.000 mrems al año.

Se ha encontrado que una exposición a más de 50.000 milirems al año está asociada con leucemia, cáncer de colon, hígado, esófago, ovarios, estómago, entre otros. La regla es mientras más grande sea la dosis de radiación, más pronta es la aparición de su efectos y más alta la probabilidad de muerte. Bomberos que lucharon contra el fuego en Chernobyl recibieron de 80.000 a 1.600.000 milirems, lo cual tuvo efectos fatales a lo largo del tiempo.

Finalmente, se estima que la mitad de una población expuesta 350.000-500.000 milirems en todo el cuerpo en un periodo que va de minutos a algunas horas, podría morir.

¿Por qué la radioactividad es perjudicial para los seres vivos?

Hemos visto que el decaimiento radioactivo es un fenómeno de lo más natural. La radioactividad generada debido a ello perjudica a los seres vivos porque las partículas emitidas —alfa, beta, neutrones, protones y rayos de alta energía— son capaces de colisionar contra los átomos y dañar su estructura electrónica. Este daño en seres vivos puede implicar desde muerte celular hasta mutaciones genéticas y cáncer.

¿Qué sucede cuando somos afectados por la radioactividad?

Los seres vivos poseemos mecanismos naturales de reparación de células dañadas por radioactividad. En general, son tres los efectos de la radiación en nuestro cuerpo

  1. La células se reparan a sí mismas sin daños colaterales a considerar

  2. Las células mueren al igual que millones todos los días, estas son reemplazadas mediante procesos biológicos normales

  3. La células se reparan de forma incorrecta, el resultado es un cambio físico

¿Cómo protegerse de la radioactividad?

Todos los días recibimos radiación, ya sea del espacio, el suelo, incluso de comida y bebidas, o bien de fuentes artificiales (en tratamientos médicos, originada en plantas nucleares). En cuanto a las fuentes naturales de radiación no hay mucho por hacer en la mayoría de los casos porque su efecto es nocivo sin la exposición es razonablemente corta. En cambio, sí es muy importante tomar medidas precautorias para el manejo de materiales radioactivos: usar ropa adecuada, no prologar la exposición y alejarse lo más posible.

Fuentes: BBC Science | HowStuffWorks | Idaho State Universit | US NRC


Fuente:
Difundan libremente  este artículo
CONSULTEN, OPINEN , ESCRIBAN .
Saludos
Rodrigo González Fernández
Diplomado en "Responsabilidad Social Empresarial" de la ONU
Diplomado en "Gestión del Conocimiento" de la ONU

 CEL: 93934521
Santiago- Chile
Soliciten nuestros cursos de capacitación  y consultoría en GERENCIA ADMINISTRACION PUBLICA -LIDERAZGO -  GESTION DEL CONOCIMIENTO - RESPONSABILIDAD SOCIAL EMPRESARIAL – LOBBY – COACHING EMPRESARIAL-ENERGIAS RENOVABLES   ,  asesorías a nivel nacional e  internacional y están disponibles  para OTEC Y OTIC en Chile

TECCHILE Microsoft es una empresa más ética que Google, Apple o Facebook

Microsoft es una empresa más ética que Google, Apple o Facebook

Por José Luis Zapata | 17 de Marzo de 2011, 09:32

A pesar de que el lema de Google es Don't be evil esto parece no haber engañado a la organización encargada calificar a las empresas más éticas del mundo. Este año el Ethisphere Institute puso a Microsoft en su lista de las 110 empresas más éticas del mundo, pero Google —el gigante que muchos creen pronto pasará a tomar el lugar de Microsoft en el mundo de la tecnología— ni siquiera apareció en la lista.

Pero además de eso (oh, sorpresa) en esta lista tampoco se encontraron Apple ni Facebook.

Más de tres mil empresas aplicaron para poder aparecer en esta lista, pero son pocas las que lo han logrado. Ethisphere basa sus resultados en muchos facotres entre los que están el historial de faltas a regulaciones y leyes, prácticas de desarrollo sustentable dentro de la empresa y la nominación por parte de otras empresas.

Es curioso que entre las empresas de software que aparecieron en el listado se encontraban Adobe Systems, Salesforce.com, Symantec Corporation, Teradata Corporation y por supuesto Microsoft. Por otra parte en empresas de hardware para computadoras solo estaba Hitachi y en electrónica de consumo estaban tres empresas la sueca Electrolux, la japonesa Ricoh y la norteamericana Xerox. En la lista podemos encontrar también a Amazon, lo cual pone al comercio en Internet en un lugar privilegiado.

Por parter de Microsoft, seguramente su campaña de Corporate Citizenship (algo así como "ciudadanía corporativa") que ha impulsado en la última década le ha ayudado mucho a conllevar la reputación negativa que se había ganado después de meterse en juicios por monopolio y otras prácticas que podrían parecer "poco éticas". Desde el inicio de este y varios otros programas, Microsoft a donado millones de dólares a empresas sin fines de lucro (entra las que se encuentran la ya mecionada Khan Academy), ha invertido en programas de fomento económico y creado un muy buen programa de reportes internos. Todo esto parece haber ayudado a su inclusión en esta lista.

Una de las razones por las que se ha dejado fuera de este top a muchas empresas es porque todas aquellas que hayan tenido algún problema legal mayor en los últimos cinco años fueron sacadas automáticamente, probablemente la investigación contra Google por parte de la Unión Europea fue parte crucial de que esta empresa no se encuentre en la lista.

¿Será cierto que Microsoft es "el chico bueno"? Quizás eso sería polarizar mucho una idea. En lo personal no he sido usuario "fuerte" de Microsoft en los últimos años (he usado Linux en ese periodo como mi operativo principal), aún así puedo aceptar que la evolución que ha habido en los últimos años por parte de esta empresa ha sido realmente positiva, llegando a crear buenos productos como las últimas versiones de Office o incluso Windows 7 (del cual no puedo hablar a ciencia cierta pero entiendo que ha mejorado bastante).

Aún así Apple ha crecido mucho en sus mercados. Es interesante pues comparar lo que se dice de dos personas que llegaron a ser los íconos de sus respectivas empresas. Recientemente Martín Varavsky ha escrito acerca de lo difícil que ha sidosu experiencia al conocer a Steve Jobs —llegando a decir que es "arrogante e inseguro"— y de que, por otra parte, Bill Gates es una persona muy afable y muy abierta a la comunicación.

Gente que definió sus empresas y que quizás, en última instancia, define la ética de las mismas. ¿Definirá la ética de estas empresas su futuro?


Fuente:
Difundan libremente  este artículo
CONSULTEN, OPINEN , ESCRIBAN .
Saludos
Rodrigo González Fernández
Diplomado en "Responsabilidad Social Empresarial" de la ONU
Diplomado en "Gestión del Conocimiento" de la ONU

 CEL: 93934521
Santiago- Chile
Soliciten nuestros cursos de capacitación  y consultoría en GERENCIA ADMINISTRACION PUBLICA -LIDERAZGO -  GESTION DEL CONOCIMIENTO - RESPONSABILIDAD SOCIAL EMPRESARIAL – LOBBY – COACHING EMPRESARIAL-ENERGIAS RENOVABLES   ,  asesorías a nivel nacional e  internacional y están disponibles  para OTEC Y OTIC en Chile

marcas: Del CTR a los sistemas "analytics"

Del CTR a los sistemas "analytics"

La medida del éxito

El branding online y las campañas publicitarias en la red se han visto resentidas por la falta de métricas que dibujen el panorama real de las audiencias y revelen uno de los datos más preciados entre los anunciantes, el retorno de la inversión, conocido por sus siglas como ROI.

Henk van Riesen.- Director de Marketing de la división online de Nielsen España - Madrid - 16/03/2011

Disponer de sistemas de medición que demuestren la efectividad de los anuncios online en un mercado cambiante y, por qué no, también incipiente ha sido, sin duda, uno de los mayores caballos de batalla de la industria publicitaria. Afortunadamente, Internet y las tecnologías surgidas al calor del medio online han cambiado radicalmente la fotografía conocida hasta ahora en el mercado de la publicidad. ¿Existe una métrica para el éxito?, ¿podemos medir con solvencia la efectividad de nuestras campañas? La respuesta es afirmativa y vamos a demostrarlo.

Si recuperamos nuestra historia más reciente y nos remontamos años atrás, es fácil entender cómo hemos llegado hasta aquí. Si me permiten la expresión, Internet comenzó siendo el "chico nuevo del barrio" en el mercado publicitario. Tenía que demostrar sus capacidades frente al resto de colegas de una selecta pandilla en la que medios tradicionales y tan asentados como la radio o la televisión contaban con parámetros claros de cómo medir y trasladar su influencia a las marcas.

Había que hacer algo -y rápido- para demostrar que Internet también debía formar parte de ese mix de medios y participar, antes o después, del pastel de inversiones publicitarias de las compañías. Por ello, no es de extrañar que los profesionales recibieran con los brazos abiertos el famoso concepto de "click-through rate" -CTR o ratio de clickeo sobre los anuncios de una campaña-, como solución de emergencia para testar la efectividad publicitaria y poder ofrecer cifras más tangibles.

El giro al GRP

En un principio, el CTR fue aceptado unánimemente por el mercado, sobre todo, porque en esos primeros años de existencia de la red, los anunciantes disfrutaban de un ratio de click que se situaba entre el 5% y el 10%. Pronto, como es bien sabido, ese porcentaje cayó drásticamente llegando a cifras tan minúsculas como el 0,1%, haciendo saltar todas las alarmas. Era el momento de buscar una nueva forma de medir.

Y es que el recién llegado chico del barrio se había hecho mayor y a la vez que maduraba iba exigiendo también métricas de adulto que estuvieran a la altura de esta, si me permiten, natural evolución. Ya no podíamos conformarnos con saber cuánta gente hacía click en nuestra publicidad, necesitábamos ir más allá, conocer cuál era el impacto real de los anuncios en las audiencias.

Conocer el modus operandi del consumidor

El año 2000 no sólo supuso un cambio de década y de siglo sino que también vino marcado por el enorme escepticismo de los anunciantes frente a Internet; sin duda, fue el momento decisivo para poner los cimientos de un nuevo sistema de medición capaz de demostrar que la red no era un medio de segunda división desde el punto de vista publicitario; sino que jugaba en primera y con espíritu ganador.

Para ello, la industria necesitaba, por un lado, acotar perfectamente el concepto de impacto publicitario a medir y, por otro, consensuar una unidad de medida que permitiera contabilizar ese número de impactos en cualquier soporte a partir de un target determinado. Era el nacimiento del popular GRP o Gross Rating Point.

Como sabemos, ni el medio online ni sus métricas han dejado de evolucionar y, si bien es cierto que nadie ha dado aún con la receta del éxito publicitario en la red, sí podemos decir, que tenemos ya a nuestro alcance la fórmula para medirlo.

Tanto es así que gracias a los nuevos sistemas "analytics" que hoy por hoy maneja buena parte de la industria podemos dar respuestas a preguntas del tipo: ¿cuántas veces se vio mi anuncio?, ¿cómo fue la frecuencia?, ¿cuál fue el reach total de la campaña?, ¿cómo se construyó en el tiempo?... ¿y se alcanzó al target deseado?

Y no sólo eso, sino que podemos ir más allá y analizar el comportamiento de los públicos y su actitud frente a una marca, su recuerdo, afinidad, identificación con la compañía y, más aún, si una campaña muy concreta influyó hasta el punto de determinar su decisión final de compra...

Y se preguntarán: ¿Cómo lo hacemos?

...Midiendo personas, no máquinas. Ofreciendo datos sobre su edad, nivel de ingresos, sexo, educación, profesión e incluso velocidad de conexión a Internet.

...Resolviendo el problema del borrado de 'cookies' que como sabemos puede sobredimensionar el alcance de una campaña y distorsionar los datos.

...Permitiendo a los anunciantes evaluar el impacto de sus campañas a largo plazo y empleando métricas comparables con otros medios.

Las métricas están ahí. Contamos con todas las garantías para medir la efectividad, estudiar en tiempo real la evolución de una campaña y rectificar llegado el caso, algo que, por desgracia o por fortuna, no nos permiten otros medios.

El éxito final, sin embargo, no lo olvidemos, no dependerá en todo caso de la medición sino del ingenio; algo, si me permiten, que esta crisis socioeconómica que invade prácticamente todas los sectores de nuestra actividad y que arrastramos desde hace ya tres años se ha encargado, por suerte, de evidenciar

Fuente:
Difundan libremente  este artículo
CONSULTEN, OPINEN , ESCRIBAN .
Saludos
Rodrigo González Fernández
Diplomado en "Responsabilidad Social Empresarial" de la ONU
Diplomado en "Gestión del Conocimiento" de la ONU

 CEL: 93934521
Santiago- Chile
Soliciten nuestros cursos de capacitación  y consultoría en GERENCIA ADMINISTRACION PUBLICA -LIDERAZGO -  GESTION DEL CONOCIMIENTO - RESPONSABILIDAD SOCIAL EMPRESARIAL – LOBBY – COACHING EMPRESARIAL-ENERGIAS RENOVABLES   ,  asesorías a nivel nacional e  internacional y están disponibles  para OTEC Y OTIC en Chile