jueves, 4 de diciembre de 2008

Office Open XML (también llamado OOXML u Open XML)


Formato de documento electrónico creado y desarrollado por Microsoft. Las especificaciones de este formato han sido desarrolladas por Microsoft para suceder a sus formatos binarios de archivo, y cedido a organismos de estandarización como ECMA e ISO. La organización ECMA lo publicó como estándar Ecma 376 en diciembre de 2006 y será aprobado como ISO 29500, tras recibir el apoyo internacional necesario.[1]
Existe cierta controversia promovida por algunos partidarios del estándar ODF desarrollado por OASIS (organización de la que Microsoft es miembro fundador) que es ya el estándar ISO 26300 y que no desean que OOXML culmine el proceso de estandarización ISO por considerar que los objetivos técnicos de OOXML ya están cubiertos por el estándar ISO 26300.
En este proceso en ISO hasta el momento se han dado las siguientes votaciones en cuanto a si se estandarizaba:
La votación se cerró el 2 de septiembre de 2007 sin alcanzar la estandarización. Se necesitaban dos tercios de votos afirmativos para que este formato pasara a ser estándar por la via rápida (fast track), pero el resultado fue de un 53% de los votos positivos, frente al 26% de los votos negativos.
[2] El resultado indica que ECMA debe contestar las objeciones presentadas y la decisión se postergó hasta febrero del 2008, mes en el que se desarrolló el BRM (Ballot Resolution Meeting). Según el comunicado de prensa de ISO, en el BRM celebrado en Ginebra del 25 al 29 de febrero de 2008, "Un total de 43 resoluciones, que contenían disposiciones o grupos de disposiciones, se aceptaron, la mayor parte de ellas unánimemente, algunas por consenso, solamente cuatro por mayoría simple y cuatro fueron rechazadas."
El día 5 de Marzo se tuvo conocimiento de que la
Comisión Europea estaba investigando el proceso de estandarización de este formato[3] debido a varias acusaciones de que los votos puedan estar influidos. Ciertas organizaciones en contra de la utilización de este formato han denunciado irregularidades en el proceso de estandarización.[4] [5]
Hasta el 29 de marzo de 2008 se extendió el plazo para que los 87 organismos nacionales de estandarización votaran la nueva redacción de la norma con las modificaciones incorporadas. La votación resultó con un 75% de votos a favor y un 14% de votos en contra, por lo que se cumplen las condiciones para que el formato se convierta en estándar ISO.
La polémica sobre el estándar OOXML finalmente se resolvió el día 12/03/08 cuando por votación de diversos países fue aprobado el formato como norma.

OPENOFFICE.ORG


OpenOffice representa un nuevo concepto de paquete de ofimática. A diferencia de los líderes del mercado, este programa fue diseñado como un solo programa desde el principio, dando completa libertad a la hora de moverse entre las diferentes aplicaciones que componen el paquete.
OpenOffice en un proyecto de código fuente abierto cuya misión es "crear, en el entorno de una comunidad, el suite de oficina internacional líder que trabajará en todas las plataformas principales y permitirá un acceso a toda la funcionalidad y datos por medio de APIs abiertos basados en componentes y el formato de archivos XML".
Cuando un producto de software se lanza con una licencia de código fuente abierto u Open Source, en principio ésta permite que todo programador que quiera pueda adaptar el software y mejorarlo. Este modelo implica importantes ventajas, tanto para los usuarios como para los fabricantes de software.
Basado en la suite de oficina StarOffice, en la cual tiene sus orígenes, la principal diferencia estriba en el desarrollo del código fuente, que como se ha mencionado
arriba se asienta en un código abierto.
Esto no significa que se deje en manos de voluntarios el desarrollo futuro del paquete, ya que, la mayoría del trabajo todavía es llevado a cabo por desarrolladores de la empresa Sun Microsystems, quien creo el proyecto Open Source de OpenOffice.
Además de las ventajas que todo esto supone, también es importante reseñar los costos de su licencia que se reducen a 0, es un software totalmente libre al que los usuarios pueden tener acceso sin coste alguno. Si bien es un producto relativamente nuevo, se puede comparar con otros paquetes ofimáticos de sus características, como el archiconocido Microsoft Office, considerándolo realmente como una alternativa a ellos. Y dado que es un producto libre, es fácil evaluarlo en un entorno particular.
En todo caso, aunque no es un producto acabado, las versiones más recientes ya han demostrado su valor para muchas aplicaciones personales y profesionales.
Entre las aplicaciones que forman el paquete se encuentran las siguientes:
Writer: procesador de textos y editor HTML.
Calc: hoja de cálculo.
Draw: módulo de dibujo vectorial.
Impress: presentaciones.
Math: editor de fórmulas.
Base de datos: aún en construcción, es necesario instalar un driver de base de datos aparte como MySQL.

Analfabetismo Tecnológico en la Sociedad de la Información



Las nuevas tecnologías de la información han producido diversos cambios negativos y positivos a nivel social y cultural., ya que la tecnología ha estado influyendo en nuestro trabajo, estudios, organización social y modo de vida.
Se plantea además que con las nuevas tecnologías de la información se pierde el sentido de privacidad, ya que al evolucionar el país en esta materia, las empresas y bancos tienen acceso a todos los datos de una persona, perdiendo el derecho a la privacidad.

Se pretende instaurar un modelo de sociedad más justa, en el cual todos los pueblos se vean beneficiados con las tecnologías de la información. Sin embargo, se ha producido una brecha entre los que tienen acceso a las tecnologías de la información, quienes son capaces de indagar en estas redes y obtener conocimientos actualizados. Mientras que las personas que no pueden acceder a estos medios tecnológicos van quedando obsoletas en el ámbito tecnológico y social, afectando muchas veces sus oportunidades de trabajo y surgimiento.
En general las tecnologías sólo facilitan y abren un futuro a los privilegiados de acceder a este medio.

Otro aspecto considerable es el impacto en empleo y educación. En los establecimientos los docentes no se están capacitando de acuerdo a las nuevas tecnologías de la información y los alumnos si lo hacen, aprenden de forma más individualizada en relación a sus propios intereses, buscando cabalidad de información que muchas veces no saben como darle utilidad, es decir, no aprovechan este medio educativamente.
Además el sistema educativo no logra incorporar los conocimientos actualizados al aula, los profesores siguen realizando los aprendizajes en relación a material poco actualizado, lo que provoca en los estudiantes un desconocimiento de las tecnologías, que en un futuro próximo ocuparán en el ámbito laboral.

El ritmo de crecimiento de las redes se ha acelerado, ya que las nuevas redes constituyen una forma primordial de comunicación interactiva, la cual es mucho más atrayente para los jóvenes estudiantes, quienes prefieren indagar sobre los conocimientos que entregan los docentes a través de este medio, es por ello que es necesario instaurar las nuevas tecnologías de la información en el aula.

Nos encontramos en una sociedad productora de información y consumidora de servicios, a la cual todos debiéramos acceder, pero lamentablemente esto no esta ocurriendo, El futuro sólo pertenece a los que se sitúan en él más rápidamente, y a quienes lo exploran en profundidad.
Lo deseable es que las nuevas tecnologías de la información conduzcan al hombre hacia un mundo con más valores y mayores niveles de bienestar, cultura y libertad. Lo cual sólo se logrará si se capacita a la sociedad en su conjunto sobre las nuevas tecnologías de la información.

Se menciona recurrentemente que para sobrevivir y prosperar socialmente se requiere más y mejor información. Nuestra sociedad esta siendo bombardeada por grandes cantidades de información y nosotros vivimos a un ritmo de vida bastante acelerado, que no somos capaces de discriminar e internalizar toda la información, sólo la recibimos y luego la olvidamos.
Las nuevas tecnologías de la información pretenden capacitar a cada uno de los individuos, con la finalidad con la finalidad de que éstos se preparen para enfrentar la nueva sociedad, sosteniéndolas como una fortaleza, en la cual cada persona pueda interferir y aprender más sobre este tema.
Considero que en primera instancia el desafío es a nivel de país, instaurando políticas en el ámbito educativo, ya que se deja como responsabilidad de los docentes capacitar a los estudiantes para las nuevas tecnologías de la información, debido a que ellos enseñarán a sus alumnos a manejar y a discriminar entre lo que es de utilidad o no para su vida, haciendo un trabajo más provechoso.

Pizarra Interactiva




La Pizarra Interactiva, también denominada Pizarra Digital Interactiva (PDi) consiste en un ordenador conectado a un video-proyector, que proyecta la imagen de la pantalla sobre una superficie, desde la que se puede controlar el ordenador, hacer anotaciones manuscritas sobre cualquier imagen proyectada, así como guardarlas, imprimirlas, enviarlas por correo electrónico y exportarlas a diversos formatos.
Tipos de Pizarra Interactiva
PDi se refiere al caso en el que el profesor o el presentador realiza las anotaciones desde y sobre la superficie de proyección.
PDiP: en este caso se trata de hacer lo mismo pero desde cualquier lugar del aula o de la sala. La superficie de proyección puede ser una pantalla estándar o la pared y el periférico desde el que se maneja el ordenador y desde el que se hacen las anotaciones manuscritas es similar a una tableta gráfica con lápiz electrónico.
Tablet Monitor: En este caso el periférico desde el que se realiza el control del ordenador y las anotaciones manuscritas es un monitor especial (combinación de monitor y tableta).
Características de la pizarra interactiva
Resolución La resolución se refiere a la densidad de la imagen en la pantalla y se expresa en líneas por pulgada. Una resolución más alta nos permite la presentación de la información de manera más nítida y precisa.
El área activa es al área de dibujo de la pizarra interactiva, donde se detectan las herramientas de trabajo. Esta superficie no debe producir reflejos y debe ser fácil de limpiar.
Conexiones: Las pizarras interactivas presentan los siguientes tipos de conexiones: cable (USB, serie), conexión sin cables (Bluetooth) o conexiones basadas en tecnologías de identificación por radiofrecuencia.
Punteros: Dependiendo del tipo de pizarra utilizado, se puede escribir directamente con el dedo, con lápices electrónicos que proporcionan una funcionalidad similar a los Mouse, o rotuladores de borrado en seco.
Software: Las pizarras disponen de un software compatible con Windows 98, 2000, NT, ME y XP, Linux(según modelo) y Mac (según modelo).

Facilita:

La posibilidad de evaluar el desarrollo de las actividades que realizan los estudiantes. Es en este sentido, que la situación de colaboración entre estudiantes que posibilita la pizarra, aportará información al docente para rectificar, aclarar y/o reforzar las estrategias y actividades que articulan los alumnos en el desarrollo de una tarea.

El docente a través de la pizarra interactiva puede apoyar sus explicaciones proyectando páginas Web y otros recursos digitales como: imágenes, simulaciones, vídeos, noticias de la prensa, presentaciones, cuentos, juegos, vídeos, materiales en soporte CD-ROM, DVD o incluso programas de televisión.
Estándar.

Estándar, conjunto de especificaciones técnicas utilizadas para unificar el desarrollo de hardware o de software. Los estándares de computadoras se desarrollan tradicionalmente de dos maneras. Una de ellas, la menos formal, tiene lugar cuando una compañía desarrolla un producto o una filosofía en solitario y consigue convertir el concepto en un estándar por la popularidad de la idea o por las imitaciones fabricadas por los competidores. Cuando el diseño se ha extendido tanto que alejarse de la norma puede causar problemas de compatibilidad o limitaciones comerciales, se considera que existe un estándar de facto, como en el caso de los aparatos de módem Hayes y los equipos personales IBM. Otra forma más ortodoxa de crear un estándar es la redacción de las especificaciones por un grupo de expertos o un comité. Esta redacción se hace después de llevar a cabo un estudio exhaustivo de los métodos existentes, las propuestas y las tendencias o desarrollos tecnológicos. Los estándares propuestos son ratificados o aprobados más tarde por una organización reconocida y se utilizan en productos basados en el estándar, que a su vez tienen más peso específico en el mercado. Existe un gran número de estándares de este tipo.

Realidad virtual




Sistema que permite a uno o más usuarios ver, moverse y reaccionar en un mundo simulado por ordenador o computadora. Los distintos dispositivos de interfaz permiten al usuario ver, tocar y hasta manipular objetos virtuales. Los mundos virtuales y todo lo que contienen (incluyendo imágenes computerizadas de los participantes) se representan con modelos matemáticos y programas de computadora. Las simulaciones de realidad virtual difieren de otras simulaciones de computadora en la medida en que requieren dispositivos de interfaz especiales. Estos dispositivos transmiten al usuario las imágenes, el sonido y las sensaciones de los mundos simulados. También registran y envían el habla y los movimientos de los participantes a los programas de simulación. En lugar de utilizar un teclado o un ratón o mouse para comunicarse con la computadora, estos dispositivos especiales permiten al participante moverse, actuar y comunicarse con la computadora de forma parecida a como lo hace en su vida cotidiana. Este estilo natural de comunicación y la capacidad de mirar a su alrededor dan al usuario la sensación de estar inmerso en el mundo simulado.


Dispositivos de interfaz

Para ver el mundo virtual, los usuarios utilizan una pantalla acoplada a la cabeza llamada HMD, que muestra una imagen de computadora ante cada uno de sus ojos. La HMD cuenta también con un sistema de seguimiento de posición para controlar la posición de la cabeza del usuario y la dirección en que está mirando. Utilizando esta información, el ordenador recalcula las imágenes del mundo virtual y genera una imagen ligeramente distinta para cada ojo. La imagen generada debe coincidir con la dirección hacia la que está mirando el usuario. La computadora debe producir varios fotogramas distintos por segundo, para evitar que la imagen no tenga saltos ni aparezca con retraso en relación a los movimientos del usuario. A pesar de que la potencia de las computadoras ha aumentado significativamente, todavía es necesario que las escenas de los mundos virtuales no sean muy complicadas de modo que la computadora pueda recomponer sus elementos con rapidez (al menos 10 veces por segundo). Una persona puede diferenciar con facilidad el mundo real del virtual, dada la simplificación de las escenas y las limitaciones de los gráficos y las pantallas de las computadoras.

¿Cómo evaluar las páginas Web?




En la Web se incluyen contenidos de muy diversas fuentes: instituciones importantes, grandes empresas comerciales y muchos sitios preparados por particulares. La información que contienen es diversa y está concebida para diferentes fines.

¿Es fiable la información del sitio Web?
Observar el modo en que se presenta la información y la calidad de los vínculos recomendados es una buena forma de evaluar el sitio. Siempre que sea posible, empieza consultando sitios de instituciones con experiencia reconocida en el tema.
¿Tiene la información tendencias ideológicas?
Comprobar quién es el propietario del sitio y quién prepara el contenido. Suele ocurrir que la página principal deja clara la naturaleza del mismo pero, en ocasiones, la existencia de ciertas tendencias no es siempre obvia.
Muchas organizaciones de prestigio mundial adoptan posturas en determinados asuntos pero se comprometen a proporcionar información fidedigna y correcta. Debes formarte tu propio juicio.
¿Está actualizada la información?
Los avances en los campos de la política, la ciencia y la tecnología pueden sucederse muy rápidamente. Comprueba que la información que estás consultando se haya actualizado recientemente.
¿Tiene la información el nivel adecuado?
No tiene ningún sentido utilizar cantidades ingentes de texto incomprensible, lo mejor es releer el texto detenidamente. Es posible que se encuentre una página resumen que te resultará útil, o un diagrama o imagen que sea más clara y valiosa que todo el resto de la información. Busca el nivel adecuado para ti.

WEB 2.O


La Web 2.0 se refiere a una nueva generación de Webs basadas en la creación de páginas Web donde los contenidos son compartidos y producidos por los propios usuarios del portal.
La Web 1.0 es la Web tradicional que todos conocemos y que se caracteriza porque el contenido e información de un sitio es producida por un editor, para luego ser consumido por los visitantes de éste.. En el modelo de la Web 2.0 la información y contenidos se producen directa o indirectamente por los usuarios del sitio Web y adicionalmente es compartida por varios portales Web de estas características.
En la Web 2.0 los consumidores de información se han convertido en “prosumidores”, es decir, en productores de la información que ellos mismos consumen. La Web 2.0 pone a disposición de millones de personas herramientas y plataformas de fácil uso para la publicación de información en la red. Al día de hoy cualquiera tiene la capacidad de
crear un blog o bitácora y publicar sus artículos de opinión, fotos, vídeos, archivos de audio, etc. y compartirlos con otros portales e internautas.
Tecnologías en la Web 2.0
La infraestructura de la Web 2.0 está relacionada con nuevas tecnologías que han hecho que sea más fácil publicar información y compartirla con otros sitios Web. Por un lado se han actualizado los
sistemas de gestores de contenido (Content Management Systems, CMS) haciendo que cualquier persona que no sepa nada sobre programación Web pueda, por ejemplo, gestionar su propio blog. Por otro lado la tecnología de la Web 2.0 ha evolucionado hasta crear microformatos estandarizados para compartir automáticamente la información de otros sitios Web.