Archivo

Archive for 30 mayo 2008

Bios de un computador

mayo 30, 2008 7 comentarios

BIOS

“Basic Input-Output System”, sistema básico de entrada-salida. Programa incorporado en un chip de la placa base que se encarga de realizar las funciones básicas de manejo y configuración del ordenador.

Resulta evidente que la BIOS debe poderse modificar para alterar los datos que la componen (al añadir un disco duro o cambiar al horario de verano, por ejemplo); por ello las BIOS se implementan en memoria. Pero además debe mantenerse cuando apaguemos el ordenador, pues no tendría sentido tener que introducir todos los datos en cada arranque; por eso se usan memorias especiales, que no se borran al apagar el ordenador: memorias tipo CMOS, por lo que muchas veces el programa que modifica la BIOS se denomina “CMOS Setup“.

En realidad, estas memorias sí se borran al faltarles la electricidad; lo que ocurre es que consumen tan poco que pueden ser mantenidas durante años con una simple pila, en ocasiones de las de botón (como las de los relojes). Esta pila (en realidad un acumulador) se recarga cuando el ordenador está encendido.

Para acceder a la bios de mi PC solo tengo que presionar suprimir antes que se inicie el sistema operativo que tengo (Windows).

Bueno como ejemplo decidí investigar sobre las configuraciones que brinda la BIOS de mí computar:

  • CPU Internal cache: el habilitado o deshabilitado de la caché interna del microprocesador. Debe habilitarse (poner en Enabled) para cualquier chip con caché interna (todos desde el 486). Si la deshabilitamos, podemos hacer que nuestro Pentium 75 vaya como un 386 rápido, lo cual no sirve para nada como no sea jugar a un juego muy antiguo que va demasiado rápido en nuestro ordenador.
  • External Caché: lo mismo pero con la caché externa o de segundo nivel. No tiene tanta trascendencia como la interna, pero influye bastante en el rendimiento.
  • Quick Power On Self Test: que el test de comprobación al arrancar se haga más rápido. Si estamos seguros de que todo funciona bien, merece la pena hacerlo para ganar unos cuantos segundos al arrancar.
  • Boot Sequence: para que el ordenador busque primero el sistema operativo en un disquete y luego en el disco duro si es “A,C” o al revés si es “C,A”. Útil para arrancar o no desde disquetes, o en BIOS modernas incluso desde una unidad Zip o SuperDisk internas.
  • Swap Floppy Drive: si tenemos dos disqueteras (A y B), las intercambia el orden temporalmente.
  • Boot Up NumLock Status: para los que prefieran arrancar con el teclado numérico configurado como cursores en vez de cómo números.
  • IDE HDD Block Mode: un tipo de transferencia “por bloques” de la información del disco duro. Casi todos los discos duros de 100 MB en adelante lo soportan.
  • Gate A20 Option: un tecnicismo de la RAM; mejor conectado.
  • Above 1 MB Memory Test: por si queremos que verifique sólo el primer MB de RAM o toda (above = “por encima de”). Lo primero es más rápido pero menos seguro, evidentemente, aunque si no ha fallado nunca ¿por qué debería hacerlo ahora?
  • Memory Parity Check: verifica el bit de paridad de la memoria RAM. Sólo debe usarse si la RAM es con paridad, lo que en la actualidad es muy raro, tanto en FPM como EDO o SDRAM. Las únicas memorias con paridad suelen estar en 486s o Pentium de marca, como algunos IBM.
  • Typematic Rate: para fijar el número de caracteres por segundo que aparecen cuando pulsamos una tecla durante unos instantes sin soltarla. Sólo útil para maniáticos; alguna vez se dice que está para discapacitados, pero me temo que su utilidad en ese sentido es desgraciadamente muy escasa.
  • Numeric Processor: para indicar al ordenador que existe un coprocesador matemático. Puesto que desde la aparición del 486 DX esto se da por supuesto, está en proceso de extinción.
  • Security Option: aunque a veces viene en otro menú, esta opción permite elegir si queremos usar una contraseña o password cada vez que arranquemos el equipo (System), sólo para modificar la BIOS (Setup o BIOS) o bien nunca (Disabled).
  • IDE Second Channel Option: indica si vamos a usar o no el segundo canal IDE (sólo en controladoras EIDE, claro), en cuyo caso le reserva una IRQ, generalmente la 15.
  • PCI/VGA Palette Snoop: esto es demasiado complejo y arriesgado para atreverme a liarle, aunque si quiere una respuesta le diré que se suele utilizar cuando tenemos dos tarjetas de vídeo (o una tarjeta añadida sintonizadora de televisión) y los colores no aparecen correctamente. Remítase al manual de su tarjeta gráfica para ver si debe habilitarlo.
  • Video Bios ROM Shadow: si se habilita, copiará la BIOS de la tarjeta gráfica desde la lenta ROM en la que está a la rápida RAM del sistema, lo que acelera el rendimiento. Suele estar habilitada sin dar problemas, salvo quizá en Linux.
  • (Adaptor) ROM Shadow: lo mismo pero para otras zonas de la BIOS. En este caso se suelen deshabilitar, para evitar problemas innecesarios, aunque puede probar y ver si aumenta la velocidad.
  • Auto Configuration: pues eso, configuración automática; la tabla de salvación cuando no se consigue hacer a mano. Los valores que da tras una primera autoconfiguración pueden ser válidos como punto de partida, así que como siempre, apúntelos antes de modificarlos.
  • ISA Bus Clock: la velocidad del bus ISA, que en teoría debe ser unos 8 MHz. A veces se introduce como una cifra en MHz y otras veces en función del bus del sistema (el PCLK), por ejemplo como 1/3 cuando éste es a 33 MHz, como en los 386 y 486 a 33 MHz o 486 a 66 y 100 (que van a 33 externamente). Cuanto más rápido sea el bus, mejor, pero no se pase: 10 ó 12 MHz ya está bien, más puede ser arriesgado y se supone que las tarjetas ISA no están preparadas para nada por encima de 8.
  • Velocidad de la RAM: en esto existen múltiples formas de proceder. Evidentemente, cuanto mayor le indiquemos que es la velocidad de la RAM más rápido irá el sistema, pero en muchas ocasiones la RAM no es tan rápida o de calidad como sería deseable y la estabilidad del sistema se resiente, sobre todo al cargarlo de trabajo. Los valores que indican esta velocidad son los ciclos de acceso a RAM, los ciclos de espera (Clock Cycles o, a veces, Wait States) que el rápido microprocesador concede a la lenta RAM antes de mandarle o leer de ella la información.
    En casi todas las BIOS existen opciones para configurar automáticamente estos valores; en algunas BIOS basta con introducir la velocidad en nanosegundos de la memoria, así como su tipo (normal -FPM-, EDO o SDRAM); en otras se debe poner la cifra más baja en ciclos. Por ejemplo, una ráfaga habitual en lectura (Read) puede ser 7-3-3-3, y se suele solicitar ese 3 como valor de DRAM Read Timing o DRAM Read Wait State (o Write para escritura). Para EDO o FPM rápida ese 3 puede ser un 2 y para SDRAM suele ser un 1. El 7 puede ser menor, incluso un 5 si tenemos un buen chipset y memoria rápida. Otras veces se indica la velocidad de la memoria simplemente describiéndola como Slowest, Slower, Faster y Fastest, de menos a más rápida.
    Así que mire los valores por defecto y vaya subiéndolos (o bajándolos, si son ciclos de espera) de uno en uno, tras lo cual reinicie y observe el rendimiento y la estabilidad del ordenador. Pruebe con Windows 9x, NT o similar, así como con algún juego exigente (mismamente Quake), no con el viejo DOS, que lo soporta casi todo. En cuanto note inestabilidad, vuelva al valor anterior y ya está.
  • Ajustes de la caché: similares a los de la RAM. Algunos consisten en modificar los tiempos de acceso, otros en modificar la forma de acceder a la caché. De cualquier forma, esto depende enteramente de las capacidades de la caché misma, así que juegue poco con estos valores. Para los arriesgados o curiosos, el modo Write Back es mejor que el Write Thru (o Through), aunque no puede usarse siempre.
  • Vídeo y System Cacheable (Shadow): como se comentó en el apartado de opciones de la BIOS, copiar la BIOS de la tarjeta de vídeo o del sistema de la lenta ROM a la rápida RAM o, en este caso, usar la caché para lo mismo. Se supone que debería aumentar el rendimiento, pero puede dar problemas con sistemas operativos de 32 bits modernos.
  • Manejo de dispositivos: hoy en día los chipsets deben manejar las controladoras de dispositivos tales como discos duros, puertos serie, etc., que suelen estar incorporadas a la placa base. No lo explicaremos por ahora, puesto que muchas veces existe un menú dedicado en exclusiva a este apartado, denominado generalmente Integrated Peripherals.
  • Configuración por software de la CPU: en la actualidad, bastantes placas base han dejado de lado el método clásico para configurar la CPU y han optado por soluciones jumperless (literalmente, “sin jumpers”), autodetectando los valores correctos de velocidad de bus, multiplicador y voltaje y/o permitiendo que el usuario los seleccione mediante un sencillo menú en la BIOS.
  • Power Management: literalmente, administración de energía. Es donde se selecciona si queremos habilitar el ahorro de energía y de qué forma; generalmente se ofrecen Disable (deshabilitado), User define (definido por el usuario) y algunas opciones predeterminadas para un ahorro mínimo o máximo.
  • PM Control by APM: una opción muy importante; determina si el control de energía deberá hacerse según el estándar APM (Advanced Power Management, administración avanzada de energía), lo que entre otras cosas permite que Windows sea capaz de suspender el equipo a voluntad o, si utilizamos una fuente ATX, que el sistema efectivamente se apague al pulsar “Apagar el sistema” en el menú Inicio.
  • Video Off Method: ofrece diversas opciones para reducir el consumo del sistema de vídeo, de las cuales la más interesante es DPMS, aunque no todos los monitores y tarjetas gráficas la soportan; lea el manual de estos aparatos para estar seguro, aunque si son modernos y de cierta calidad es muy probable que la incorporen. La opción Blank Screen es simplemente un salvapantallas negro, lo que puede ser útil en DOS.
  • PM Timers: para controlar el tiempo que debe permanecer inactivo el ordenador (System) o el disco duro (HDD) antes de que se active el ahorro de energía. Existen 3 grados de ahorro de energía:
  • Doze: reduce la velocidad de la CPU (el microprocesador).
  • Standby: reduce la actividad de todo el ordenador.
  • Suspend: reduce al mínimo la actividad del ordenador; sólo debe utilizarse con CPUs tipo SL, como son la mayoría de los 486 rápidos y superiores.
  • PM Events: una larga serie de eventos o sucesos que deben ser controlados para saber si el ordenador está inactivo o trabajando. Es habitual no controlar (Disable) la actividad de la IRQ8 (reloj de la BIOS), ya que rara vez se la puede considerar como totalmente inactiva.
  • CPU Fan Off in Suspend: si el ventilador de la CPU va conectado a la placa base, lo apaga cuando el equipo está en suspenso, ya que en ese momento la CPU está prácticamente parada.
  • Modem Wake Up: activa el equipo cuando se detecta una llamada entrante en el módem. Necesita que el módem soporte esta característica y que esté conectado a la placa base mediante un cable especial.
  • LAN Wake Up: igual que la anterior, pero para la tarjeta de red. También necesita estar conectado a la placa base mediante un cable.

Configuración de PNP y slots PCI

  • PNP OS Installed: informa al sistema de si hay un sistema operativo PNP instalado, es decir, uno que soporta Plug&Play, como Windows 95, en cuyo caso pasa a éste el control de los dispositivos PNP.
  • Resources Controlled by: recursos controlados bien manual, bien automáticamente. Es indiferente una u otra opción… siempre que no haya problemas, claro.
  • IRQx/DMAx assigned to: una lista de las interrupciones (IRQs) y canales DMA que podemos asignar manualmente, bien a tarjetas PCI/ISA PnP (compatibles con PNP), bien a tarjetas Legacy ISA (tarjetas ISA no PNP, que son las más conflictivas). Necesitaremos conocer los valores de IRQ y/o DMA a reservar, que vendrán en la documentación del dispositivo problemático.
  • PCI IDE IRQ Map to: algo que muy probablemente no necesite cambiar nunca, ya que sólo afecta a controladoras IDE no integradas en la placa base, sino en forma de tarjeta, que no sean PNP.
  • Assign IRQ to USB: pues eso, si el puerto USB debe tener una interrupción asignada o no. Si no tiene ningún dispositivo USB conectado, puede liberar esa IRQ para otros usos; suele ser la misma interrupción que para uno de los slots PCI o ISA
  • Autodetección de discos duros IDE: Esta opción permite detectar los discos duros que están conectados al sistema, así como su configuración. Resulta muy útil para simplificar la tarea de instalar un disco nuevo, así como cuando los datos del disco no están completos o no parecen funcionar en nuestra BIOS.
  • Control por password: Es decir, por una clave de acceso en forma de palabra secreta que sólo conozca usted. Tenga en cuenta que si la olvida se verá en graves problemas, hasta el punto de tener que borrar toda la BIOS para poder volver a usar el ordenador, así que apúntela en algún lugar seguro.
  • HDD Low Level Format. Se trata de un formateo mucho más intenso que el normal; no sólo elimina los datos, sino que reorganiza la propia estructura del disco. Generalmente sólo debe usarse cuando el disco está fallando muy a menudo o ha sido infectado por un virus tremendamente resistente, y aun así no resulta recomendable.

Autoconfiguración de la BIOS

Este apartado comprende diversas opciones que se proporcionan para facilitar la configuración de la BIOS, de las cuales las más comunes son:

  • LOAD BIOS DEFAULTS: carga una serie de valores por defecto con poca o nula optimización, generalmente útiles para volver a una posición de partida segura y resolver problemas observados al arrancar.
  • LOAD SYSTEM DEFAULTS: una opción cuyos efectos varían de unas BIOS a otras. En unos casos carga unos valores por defecto seguros (como LOAD BIOS DEFAULTS), en otros carga unos valores ya optimizados para conseguir un rendimiento adecuado, o incluso puede servir para cargar la última serie de valores guardados por el usuario.
  • LOAD TURBO DEFAULTS: carga los valores que estima óptimos para incrementar el rendimiento.

En conclusión la bios es un  componente lógico que contiene todo tipo de instrucciones modificables y no modificables que nos permiten administrar rápidamente y fácilmente las configuraciones presentes en el computador.

Referencias:

http://www.monografias.com/trabajos37/la-bios/la-bios.shtml

Anuncios

TELETRANSPORTE CUANTICO

mayo 30, 2008 1 comentario

TELETRANSPORTE CUANTICO

ORIGENES:

El primer científico que realizó investigaciones sobre teletransportación fue Charles Bennett de IBM, quien en 1993 confirmó la posibilidad del teletransporte cuántico.

Y los esfuerzos continúan: En el 2002, el doctor Ping Koy Lam de la Universidad Nacional de Australia y un grupo de científicos consiguieron desintegrar un rayo láser y hacerlo aparecer instantáneamente a un metro de distancia.

EN  QUE CONSISTE:

El teletransporte cuántico consiste en la transmisión de información de un lugar a otro de forma aparentemente inmediata.Esto estaría poniendo en cuestión la teoría de la relatividad; para evitar esto se puede recurrir a la teoría de John S. Bell que dice que la partícula entrelazada viajaría hacia el punto de origen en el pasado, compartiría la información y regresaría a nuestro punto, de modo que si nosotros realizamos una medición en una partícula A ésta se vera complementada en la partícula B.

HOY:

El 7 de mayo de 2004, científicos australianos logran transmitir un mensaje por teletransportación cuántica.

En 2005 se consiguió teleportar el estado de un átomo a otro que estaba a 10 micras de distancia.

FUNDAMENTO  FÍSICO:

Como estás hecho de electrones, protones y neutrones, y éstos son iguales en todas partes, no sería necesario enviar a la estación receptora las partículas originales que te componen. Bastaría con la información de sus posiciones y características. Con la receta en mano, no le sería difícil a la estación receptora agenciarse electrones, protones y neutrones en números suficientes para reconstruirte en glorioso tecnicolor.  El problema con la teletransportación es que un principio muy general de la mecánica cuántica -el principio de incertidumbre de Heisenberg-dice, en pocas palabras, que es imposible extraer por medición toda la información acerca del estado y las características de un objeto (ver en estas páginas Mareo cuántico). Por lo tanto, el escáner imaginario no puede obtener toda la información necesaria para reconstruirte en la estación receptora. Al parecer, la mecánica cuántica prohíbe la teletransportación

Hay cuatro maneras distintas de enredar las partículas M y A , cada una con 25 % de probabilidad de producirse, pero Alicia no puede controlar en cuál de estos estados quedarán sus partículas (otra característica de la mecánica cuántica). Luego de la operación, Alicia tiene que informarle a Beto cuál de los cuatro estados enredados posibles obtuvo, y para eso tendrá que usar algún medio de comunicación tradicional. La teletransportación cuántica no es instantánea porque Alicia tiene que enviar información clásica a Beto. Con esta información, Beto aplica a su partícula B el tratamiento adecuado para que adquiera el mismo estado que M . La partícula que otrora fuera B se ha convertido en una réplica exacta de M. La partícula que otrora fuera M pierde su estado original al enredarse con A , de modo que el proceso equivale a una teletransportación y no a una duplicación.

APLICACIONES FUTURAS

Teletransportar personas no está prohibido, pero “sería tan difícil que nadie está pensando seriamente en ponerlo en práctica”, según dice Ping Koy Lam, director del proyecto australiano. Con todo, la teletransportación cuántica tendrá aplicaciones interesantes, por ejemplo, en computación cuántica, disciplina nueva que busca usar las extrañas propiedades de los sistemas cuánticos para construir computadoras inimaginablemente rápidas y potentes.


Aunque a pesar que el desarrollo de la teletransportacion cuantica todavía estamos lejos de transportar moléculas tan complejas como organismos,  se cree que el desarrollo de las computadoras cuanticas ya es un hecho y que los adelantos podrían ser asombrosos en más o menos en 50 años los cuales podrían cambiar el mundo de la tecnología y las comunicaciones.

MIGUEL ANGEL TEHERAN GARCIA

LA BIOETICA – por Miguel Teheran

mayo 26, 2008 1 comentario

LA BIOETICA

La bioética en los últimos tiempos a tenido un cierto desarrollo esto se debe a que igualmente el desarrollo de la biología y la medicina se ha ido extendiendo de manera alarmante.

La bioética habla sobre lo mínimo que puedo hacer yo por el otro, por lo que me rodea, estar en paz con todo lo que se acerque a mí.  Este concepto se amplía desde las platas y los animales hasta lo humano es decir todo ser viviente.

La bioética posee 3 campos importantes:

  • La investigación.
  • La interdisciplinariedad.
  • La hermenéutica.

En el campo de la investigación se dan grandes paradigmas y situaciones que ponen en juego la ética del hombre. Esto se debe más que todo a la ansiedad que tiene el hombre de buscar la verdad y de intentar ser cada día un ser superior.  Por ejemplo: la clonación y el desarrollo de armas químicas. En todo este contexto es importante citar esta frase “Hacer ciencia con conciencia”.

A pesar de todos los beneficios que puede traer la medicina y el desarrollo químico tenemos que poner en primer lugar hasta que punto debemos llegar y hasta que punto es bueno llegar, así mismo de que forma hacemos las cosas y como podemos mejorar la forma en que alcanzamos nuestros logros.

La bioética también posee principios básicos en los que se basa su teoría, en estos se encuentran:

  • Autonomía
  • Beneficencia
  • NO maleficencia
  • Justicia
  • Responsabilidad

La autonomía se refiere al derecho que tiene cada quien en su nivel de razón a tomar decisiones y a reconocer los actos que comete.

La beneficencia se trata de buscar el beneficio de otros apartándose un poco del interés propio.

La no maleficencia se trata de no realizar actos que afecten a los demás y comprometan a los seres a su degradación de ser algo vivo.

La Justicia esta se trata de tratar a cada ser vivo de igual forma sin importar condiciones biológicas, culturales, sociales, económicas.

La responsabilidad se refiere al hecho de afrontar correctamente nuestras acciones y cambiar aquellas que sabes de cierto bodoque está mal.

Con estos principios se nota el campo en el que se extiende la bioética en donde no solo basta el hecho de hablar sobre la el alcance de la medicina o de la química sino también de la ecología, el trato a los animales, el medio ambiente y del respeto a todo ser viviente.

Al igual que se desarrolla la bioética se desarrolla el llamado bioderecho considerado como las leyes que rigen la bioética importantes para que se de mas el desarrollo  de esta importante rama.

De esta manera podemos reflexionar en muchos paradigmas y también en preguntas sencillas como ¿para que la clonación?, ¿para Mostrar poder?, ¿son en realidad las corridas de toros un deporte?

MI PUNTO DE VISTA:

La bioética contiene principios muy importantes para la vida humana, para una convivencia ideal en este planeta que tantas cosas buenas nos ha dado en la historia y nos da cada día, a cada hora.

Tal vez la bioética en la medida que vaya creciendo nos va ayudando a recordar lo importante que es el ser humano y  el desarrollo a nivel de la historia de sus capacidades.  Y termino con esta frase ” estar en paz con lo que nos rodea es lo único que nos puede llevar a la felicidad”.

Miguel Teheran

El origen de la vida de Oparin

mayo 24, 2008 50 comentarios

EL ORIGEN DE LA VIDA

El origen de la vida es un libro que intenta descifrar parte de esa pregunta hecha por el hombre en toda su vida: por qué.

En un principio se aclaran las diversas teorías dadas a través de la historia sobre el origen de la vida así como la brecha  tan grande que existe entre unas y otras dada por la religiosidad y la ciencia lo que explica que nunca existirá una buena relación entre dichas teorías.

Por su parte las religiones expresan sus teorías y basan su demostración en la fe y en la cultura predecesora o ancestral, por otro lado la ciencia utiliza medios tangibles por los sentidos para demostrar la forma en que se presentan o se presentaron los sucesos.

Oparin en su libro utiliza especialmente conocimientos de las áreas de ciencias, biología, química y un poco de astrología para poder explicar lo que el considera como la formación de la vida.

Oparin empieza con la formación de la tierra y el sistema solar, en un principio existieron diversas sustancias consideradas hoy en día como sustancias orgánicas y una de las más grandes razones por las que la tierra fue propensa para esto por su posición intermedia en el sistema solar  y a su vez el sol como una estrella intermedia entre las estrellas, estas condiciones fueron las necesarias para el desarrollo de muchas sustancias una de ellas y considerada la mas fundamental el carbono el cual también se ha encontrado en varios meteoritos y en otras formaciones espaciales. Gracias a esta sustancia también se constituyo  la formación de un líquido  que en  la edad moderna del hombre  ayudo a la construcción de muchas maquinas e inventos: el petróleo.

Con el carbono en la tierra y tantas sustancias en el medio fue casi inmediato que se formaran sustancias mas complejas constituidas por la combinación de varias de estas, esto se debió a varios años de reacciones químicas. Entre unas de las sustancias que contribuyeron esta el oxigeno, el hidrogeno y el nitrógeno.

Como un proceso evolutivo la aparición de partículas complejas que las proteínas llego oparin explica que los carbohidratos fueron los siguientes en la cadena evolutiva estos son el principio de lo que se pudiera considerar como algo vivo en la tierra, cada vez estos fueron siendo uno dependiente del otro del tal manera que la unión de uno con otro mas que por conveniencia se hizo casi necesaria considerando este conjunto de sustancias  como el protoplasma vivo.

Según oparin todos estos procesos que duraron muchos miles de años fueron llevados a cabo en lo que hoy es el mar para el ser humano por esto después que todas las sustancias tuvieron una mejor organización y se prepararon para su autorenovación y su autoconservación se dieron los primeros organismos  unicelulares y también lagas, medusas y gusanos.  De esta manera siguió la evolución pasando por la era jurasica, con la aparición de mamíferos y todo tipo de organismos avanzados en el planeta incluyendo el hombre.

Con todo esto oparin concluye que la vida fue posible en el planeta tierra gracias a  su posición en el sistema solar al igual que la posición del sol  todo esto dio pie al desarrollo de todas las moléculas orgánicas que juntaron y coexistieron para formas las primeras formas de vida y posteriormente toda la evolución de los seres vivos.

MI OPINION: Pienso que oparin realizo muchos estudios para escribir este libro el cual me dejo muy crédulo de su teoría y la considero como una de las mas acertadas y completas.

Me parece que es importante que mucha gente lea este libro y saque sus propias conclusiones, ya que para resolver la pregunta del por que del hombre es necesario considerar cualquier posibilidad.

 

Miguel Teheran

 

Como crear un GIF animado con Flash 8

mayo 17, 2008 35 comentarios

TUTORIAL GIF animado en Flash por Miguel Angel Teherán García

Para crear un GIF animado a través de flash solo hay que hacer el flash como tal y al momento de publicarlo le damos que nos genere el GIF animado.

Primero se mostrará un botón práctico que se puede hacer de manera sencilla en flash especialmente para páginas Web.

  • Entrar a flash 8 y crear un nuevo documento. El botón va a ser más ancho que alto. Coloquemos por ejemplo, 100 px de ancho contra 50 de alto y nos queda algo así:

  • Se coloca en el fondo del documento el color que prefiramos y se añade una caja de texto en el centro, con el texto que queramos como por ejemplo “Descargar”, al finalizar, se obtendrá algo así:

  • Ahora sí, mejore el aspecto del botón dándole una pequeña animación. Para ello debemos agregar más fotogramas con la tecla F5 y después de esto darle clic derecho al texto y convertirlo en una imagen y luego en el último fotograma que se ingrese, le damos agregar fotograma clave para entonces tendremos algo como esto:

  • Ahora, seleccionemos el texto convertido en imagen en la parte de abajo, vamos a la opción de color y para el caso del color que seleccionamos que fue blanco elegimos “Brillo” y en nuestro primer fotograma colocamos “Brillo” en 100º y después en el fotograma clave al final de la animación colocamos “Brillo” en -100º al pararnos sobre la mitad de la animación le damos abajo animar y seleccionamos la opción “movimiento” se debe ver de esta forma:

  • Repetimos este mismo procedimiento pero a la inversa, colocando primero “Brillo” en -100º y luego en 100º en un fotograma clave.

  • Ahora, vamos a publicar el programa. Para ello, le damos primero en “Archivo” luego, “Configuración de publicación” y agregamos “Imagen GIF”. Inmediatamente, aparece una nueva pestaña y hacemos click, seleccionamos en la opción “Reproducción”, “Animada” y agregamos la opción de coincidir en película. En cuanto a las dimensiones, la configuración debe estar así:

  • Listo. Ahora solo hay que darle “Archivo”, “Publicar” y en todos nuestros archivos que generó, aparece nuestro GIF animado.

Podemos incluso, agregarle muchas cosas mas.

Además, hay otros software como Magic Swf2Gif al cual solo tienes que ingresar tu archivo flash y lo convertirá en un GIF inmediatamente.

Aca esta un ejemplo de cómo queda todo al final:

GIF animado

Espero que les sirva este tutorial, si hay alguna pregunta déjenla en el comentario.

Contaminación electromagnética

mayo 11, 2008 3 comentarios

Contaminación electromagnética

La contaminación electromagnética en un contexto amplio se refiere al exceso de radiación electromagnética suficiente para causar daños en la salud humana, a otros seres vivos o incluso a todo un ecosistema.

Este tema se ha convertido en los últimos tiempos de mucho interés por varias razones, entre otras, se encuentran el rápido crecimiento de las redes inalámbricas que va en conjunto con el crecimiento de la población y por otro lado, está el calentamiento global que ha aumentado significativamente ciertas ondas electromagnéticas naturales como los rayos solares. ¿Pero será suficiente radiación como para hacer daño a la salud o al medio ambiente?, según los científicos en los países mas desarrollados la radiación ha incrementado como para decir que si y el hombre debe controlar esto antes de que sea tarde, los científicos utilizan estudios de todo el espectro electromagnético para poder identificar la potencia que diariamente esta recibiendo una persona en un lugar determinado, con la ayuda de software y de antenas especiales con gran ancho de banda se logra acercarse mucho al valor exacto y lastimosamente los resultados son poco alentadores si se mira lo que pasaba hace unos años y si se observa lo que puede ocasionar el crecimiento a largo plazo.

La razón por la cual es necesario un control sobre las redes celulares y otros servicios inalámbricos es porque estas son lo único que como seres humanos podemos controlar ya que la radiación solar no para de crecer pero es imposible controlarla de manera fácil, entonces es indispensable pensar en el tema y mirar a futuro. Estos seguimientos a la tecnología inalámbrica generarían algunos cambios importantes, entre otros, limitarían el mercado de las telecomunicaciones y exigirían a las nuevas tecnologías una calidad exhaustiva, especialmente en el uso de la potencia. Dichos cambios entonces condicionarían, mas no eliminarían las tecnologías inalámbricas.

En la actualidad, el gestor más importante del medio ambiente Greenpeace ya ha empezado a tomar cartas en el asunto al igual que organismos reguladores de celulares.

Nosotros como usuarios podemos ayudar a la causa sabiendo de antemano que es algo necesario para nuestras vidas. Algunas recomendaciones son:

  • Utilizar el manos libres del celular el mayor tiempo posible.
  • Tratar de utilizar lo menos posible varios equipos celulares.
  • Ayudar a las autoridades cuando se instalen medios inalámbricos piratas.
  • Hacer valer las leyes de regulación cuando empresas de telefonía móvil, internet u otros servicios coloquen antenas en lugares cercanos a personas en residencias.
  • Evitar estar mucho tiempo cerca de equipos que trabajen con mucha radiación como hornos microondas y routers inalámbricos.

Es increíble pensar que al fin y al cabo todo lo que hace el hombre para su bien, termina siendo controlado para que no genere su propia destrucción.

Miguel Teheran

Bienvenido a MteheranBlog

Espero que tu visita sea de tu agrado y agradeceria tus comentarios.

Categorías:Uncategorized Etiquetas: , , , ,