jueves, 3 de noviembre de 2011

Linux Mandriva

Mandriva o Mandriva Linux es un distribución Linux publicada por la compañía francesa Mandriva destinada tanto para principiantes como para usuarios experimentados, que ofrece un sistema operativo orientado a computadoras personales y también para servidores.


Mandriva surgió en 2005 como resultado de la fusión de la distribución francesa Mandrake Linux y la brasileña Conectiva Linux . Se distribuye mediante la Licencia pública general de GNU, y es posible descargar su distribución en formato ISO.

HISTORIA
En 1998, la compañía francesa Mandrakesoft SA crea la distribución de Linux Mandrakelinux. No fue sino hasta 2005, después de la adquisición de la empresa brasileña Conectiva que la empresa y el producto se denominará “Mandriva” y “Mandriva Linux”.


El creador de Mandrakelinux es Gael Duval, co-fundador y ex empleado de RedHat. La distribución es total o parcialmente compatible con varios idiomas (73 idiomas en 2004) y fue uno de los primeros en presentar un interfaz gráfica basada en la instalación de Perl y GTK plenamente internacionalizado, lo que explica su éxito en Rusia, entre otros.

En cuanto a su País de origen el resultado de la fusión de cinco compañías por lo tanto de 5 distribuciones, diferentes tiene distintos países de origen: Mandrake Francia, Conectiva Brasil, por lo tanto su país de origen son: Francia, Brasil, Estados Unidos, aunque las dos más importantes son Francia y Brasil.

VERSIONES
De la versión 5.1 a la versión 9.2:


  • número como X. Hay por lo general un valo 0 a 2



  • una distribución de nombre, según la práctica establecida en otras distribuciones.


  • Ejemplos: Mandrake Venecia 5.1, Mandrake 9.2

De la versión 10.2



  • un número de formulario 10.y;

  • una indicación de la estabildad: la Comunidad para la versión a prueba, oficial de la versión estable;

  • Ejemplos: Mandrakelinux 10.0 de la Comunidad, Mandrake 10.1 Oficial;

Para las siguientes versiones:



  • un número que indica el año: 2006, 2007, 2008, 2009


  • Ejemplos: Mandriva Limited Edition 2005, andriva 2006.

  • La versión 10.2 de la distribución es también llamada Mandriva Linux Limited Edition 2005 y sirve como una transición entre los dos últimos métodos de conteo.

1. Mandriva Linux Free
Es la edición gratuita de Mandriva Linux se llama así porque contien unicamente software libre.
Mandriva Free es una edición completamente funcional viene con una amplia variedad de aplicaciones en muchas áreas (oficina, Internet, multimedia, servidor, etc.). Es ideal para los que desean software libre solamente y su escritorio por defecto es LXDE. Debido a su reducido tamaño, se puede ampliar su instalación mediante los repositorios de Mandriva, al igual que en las demás ediciones.


2. Mandriva Linux Free Dual

Reemplaza a Mandriva Mini. Esta edición incluye las arquitecturas x86 y x86_64 en un solo CD, contiene software libre solamente y su escritorio por defecto es LXDE. Debido a su reducido tamaño, se puede ampliar su instalación mediante los repositorios de Mandriva, al igual que en las demás edicines.



3. Mandriva Linux One
Edición también disponible de forma gratuita. Lo atractivo de esta forma de distribución radica en que el usuario puede ejecutar el sistema sin instalarlo (y sin modificar ninguna configuración del equipo), aunque de todas formas puede ser instalado en el disco duro mediante el asistente que incluye.




4. Mandriva Linux Flash
Mandriva Flash es un completo y real escritoio Linux puede guardar sus documentos y preferencias en la memoria USB, utilizar todas sus aplicaciones favoritas de Internet, multimedia y aplicaciones de oficina. Incluso puede instalar nuevas aplicaciones y descargar actualizaciones, tal como una instalación Linux normal.



martes, 18 de octubre de 2011

Diferencia entre Ubuntu y Xubuntu










Ubuntu y Xubuntu, son el mismo kernel, con los mismos paquetes con distinto entorno gráfico. Por lo tanto todos los programas que se instalan en Ubuntu tambien se instalan en Xubuntu.

Ubuntu usa GNOME y Xubuntu usa XFCE como entornos gráficos, ambos son desarrollados a partir de las bibliotecas GTK así que son muy similares, es más en Xubuntu XFCE esta complementado por muchos componentes de GNOME.

Sin ninguna duda XFCE es más liviano que GNOME, si bien sobre Ubuntu puedes instalar sin problemas XFCE y alternar entre este y GNOME, si quieres aumentar el rendimiento y que tu máquina trabaje más liviana, luego de probarlo, si lo adoptas, te conviene instalarlo desde cero a partir del alternate cd de Xubuntu.

miércoles, 28 de septiembre de 2011

Ubuntu

Ubuntu(AFI:/u'buntu) es una distribución Linux basadaen Debian GNU/Linux que proporciona un sistema operativo actualizado y estable para el usuario medio, con un fuerte enfoque en la facilidad de uso y de instalación del sistema. Al igual que otras distribuciones se compone de múltiples paquetes de software normalmente distribuidos bajo una licencia libre o de código abierto. Estadísticas web sugieren que el porcentaje de mercado de Ubuntu dentro de las distribuciones Linux es de aproximadamente 50%, y con una tendencia a subir como servidor web.



Está patrocinado por Caronical Ltd., una compañía británica propiedad del empresario sudafricano Mark Shuttleworth que en vez de vender la distribución con fines lucrativos, se financia por medio de servicios vinculados al sistema operativo y vendiendo soporte técnico. Además, al mantenerlo libre y gratuito, la empresa es capaz de aprovechar los desarrolladores de la comunidad en mejorar los componentes de su sistema operativo. Caronical también apoya y proporciona soporte para cuatro derivaciones de Ubuntu: Kubuntu, Xubuntu, Edubuntu y la versión de Ubuntu orientada a servidores (Ubuntu Server Edition).


Su eslogan es Linux for Humas Beings (Linux para seres humaos) y su nombre proviene de la ideología sudafricana Ubuntu (“humanidad hacia otros”).

Cada seis mese se publica una nueva versión de Ubuntu la cual recibe soporte por parte de Caronical, durante dieciocho meses, por medio de actualizaciones de seguridad, parches para bugs críticos y actualizaciones menores de programas. Las versiones LTS (Long Ferm Support ), que se liberan cada dos años, reciben soporte durante tres años en los sistemas de escritorio y cinco para la edición orientada a servidores.



jueves, 22 de septiembre de 2011

1. ¿Quién es Linus Torbalds?
Linus Benedict Torvalds (28 de diciembre de 1969, Helsinki, Finlandia) es un ingeniero de software finlandés, conocido por iniciar y mantener el desarrollo del "kernel" (en español, núcleo) Linux, basándose en el sistema operativo libre Minix creado por Andrew S. Tanenbaum y en algunas herramientas, varias utilidades y los compiladores desarrollados por el proyecto GNU. Actualmente Torvalds es responsable de la coordinación del proyecto. Pertenece a la comunidad sueco-parlante de Finlandia.

2. ¿Cuántas versiones de Linux hay en la actualidad?

UBUNTU

Distribución basada en Debian, con lo que esto conlleva y centrada en el usuario final y facilidad de uso. Muy popular y con mucho soporte en la comunidad. El entorno de escritorio por defecto es GNOME.


REDHAT ENTERPRISE

Esta es una distribución que tiene muy buena calidad, contenidos y soporte a los usuarios por parte de la empresa que la distribuye. Es necesario el pago de una licencia de soporte. Enfocada a empresas.


FEDORA

Esta es una distribución patrocinada por RedHat y soportada por la comunidad. Facil de instalar y buena calidad.


DEBIAN

Otra distribución con muy buena calidad. El proceso de instalacion es quizas un poco mas complicado, pero sin mayores problemas. Gran estabilidad antes que últimos avances.


OpenSuSE

Otra de las grandes. Facil de instalar. Version libre de la distribucion comercial SuSE.

SuSE LINUX ENTERPRISE

Otra de las grandes. Muy buena calidad, contenidos y soporte a los usuarios por parte de la empresa que la distribuye, Novell. Es necesario el pago de una licencia de soporte. Enfocada a empresas.


SLACKWARE


Esta distribución es de las primeras que existio. Tuvo un periodo en el cual no se actualizo muy a menudo, pero eso es historia. Es raro encontrar usuarios de los que empezaron en el mundo linux hace tiempo, que no hayan tenido esta distribucion instalada en su ordenador en algun momento.



GENTOO

Esta distribución es una de las unicas que incorporaron un concepto totalmente nuevo en Linux. Es una sistema inspirado en BSD-ports. Podeis compilar/optimizar vuestro sistema completamente desde cero. No es recomendable adentrarse en esta distribucion sin una buena conexion a internet, un ordenador medianamente potente (si quereis terminar de compilar en un tiempo prudencial) y cierta experiencia en sistemas Unix.


KUBUNTU

Distribución basada en Ubuntu, con lo que esto conlleva y centrada en el usuario final y facilidad de uso. La gran diferencia con Ubuntu es que el entorno de escritorio por defecto es KDE.


MANDRIVA

Esta distribución fue creada en 1998 con el objetivo de acercar el uso de Linux a todos los usuarios, en un principio se llamo Mandrake Linux. Facilidad de uso para todos los usuarios.

3. ¿Qué es el Kernel de Linux?
Se puede definir como el corazón del sistema, ya que es el encargado de que el software y el hardware de tu ordenador puedan trabajar juntos.
Las tres funciones principales que realiza son:
• Administración de la memoria, destinada a todos los programas en ejecución
• Administración del tiempo de procesador que estos programas en ejecución utilizan
• Es el encargado de que podamos acceder a los periféricos de nuestro ordenador de una manera eficaz y cómoda
Existen dos versiones del Linux Kernel:
• Versión de producción: Es la version estable hasta el momento y es el resultado final de las versiones en desarrollo o experimentales
• Versión de desarrollo: Esta versión es experimental y es la que utilizan los desarrolladores para programar, comprobar y verificar nuevas características, correcciones, etc. Estos nucleos suelen ser inestables y no se deberian usar, a no ser que fuese un usuario especializado en núcleos

3. ¿Cuáles son las caracteristicas de Linux?

Multitareas
Multitareas describe la habilidad de ejecutar aparentemente, al mismo tiempo, numerosos programas sin obstaculizar la ejecución de cada aplicación. Es fácil apreciar los beneficios de tener capacidades de multitareas preferente.

Multiusuario
La capacidad de Linux para asignar tiempo del microprocesador a numerosas aplicaciones simultáneas se prestó como consecuencia a servir a numerosas personas al mismo tiempo, cada una ejecutando una o más aplicaciones. Shells programables
Esta es otra característica que hace de UNIX y en consecuencia de Linux, lo que es: el sistema operativo más flexible.

Los shells de Linux, son equivalentes al COMMAND.COM que emplea MS-DOS. Ambos aceptan y ejecutan comandos, y corren archivos de procesamiento por lotes y programas.

Independencia de dispositivos bajo Linux
Al igual que UNIX, Linux comparte muchos de los mismos beneficios de la independencia de dispositivos. Por desgracia, una de las mejores características de Linux es al mismo tiempo una de sus mayores desventajas: su independencia del mundo comercial. Linux ha sido desarrollado durante los últimos anõs por una variedad de programadores de todo el mundo, quienes no tienen acceso a todos los equipos creados para las PCs de IBM y las compatibles. De hecho, Linux no corre en algunas PCs de IBM, en especial las que utilizan el bus de microcanal.

Como último recurso, puesto que se tiene el código fuente para el núcleo, se puede modificar el núcleo para trabajar con los nuevos dispositivos.

Comunicaciones y capacidades de red
La superioridad de UNIX y de Linux sobre otros sistemas operativos es igual de evidente en sus utilerías para comunicaciones y red. El envío de mensajes internos o la transferencia de archivos puede hacerse mediante algunos comandos de Linux, entre los que están write, cal, mail, mailx asi como cu y uucp. El intercambio de información entre usuarios del mismo sistema se lleva a cabo por medio de comunicación terminal a terminal, correo electrónico y un calendario automático que sirve como administrador y programador de información.

Portabilidad de sistemas abiertos
En la interminable búsqueda de la estandarización, muchas organizaciones han asumido un interés renovado en la dirección en la que están evolucionando los sistemas operativos.

4. Compara a Linux frente a otros sistemas operativos.
La gran mayoría del software disponible para Linux es libre y se distribuye bajo la licencia GLP (general Public License) de GNU. A principios de la decada de 1990 un estudiante filandes de la univisersidad de Helsinki, en Finlandia, Linus Torvalds, estaba desarrollando un sistema basado en la version Minux capaz de correr en las Pc de las familias Intelo X86, al cual llamaria posteriormente Linux.

El 5 e Octubre 1991 fue lanzada la primera version oficial de Linux capaz de ejecutar un Shell ( la fomosa pantalla negra dopnde hay que tipear todo) y el compiladoir GCC ( con el cual se pasa el codigo fuente a binario entendible por PC) Luego de este lanzamiento y grancias a un mensaje que linus escribio en el foro comp.os.minix, Linux tuvo un gran crecimiento en su desarrollo, impulsado por la colaboracino de un buen numero de programadores.

La rivalidad entre Windows y Linux parece, muchas veces una confrontacion encarnezida. Muchos usuario de Linux suelen verla como una batalla entre el bien y el mal o entre la avaricia individualista y la solidaridad de trabajo en equipo, En realidad, aunque Linux es una sistema joven que avanza a psos gintescos, tiene sus cosas malas y sus cosas buenas, así como tambien las tiene Windows.

Un aspecto muy criticado de Windows al ser comparado con Linux, tiene que ver con el que el primero solo produce pequeños avances en cada nueva version. Por otro lado, Linux aun se encuentra a un paso atrás de Windows en relacion a las PC de escritorio, debido al desconocimiento de la gente y a las grandes alianzas que tiene Microsoft con muchas empresa de hardware y del rubro.

En cuanto a seguirdad del equipo.

Si bien ningun sistema operativo es 100% seguro, debe reconocerse que en Linux, practicamente no existen virus. Los que aparecen son contados con los dedos de la mano, osea usando Linux nos olvidaermos de comprar un antivirus para proteger nuestra PC.

Interfaz Grafica y recursos de la Pc

Si bien el Kernel de Linux puede correr bajo cualquier maquina 486, si queremos una interfaz gracia de calidad en sus ultimas versiones como lo son entre otras KDE o Gnome demos disponer de una PC relativamente nueva, con un procesador de no menos de 1Ghz al menos 256 MB en memroia RAm, la interfaz gracia de Linux a diferencia de la de Windows no esta incluida sino que viene como un software aparte, esto es util si queremos realizar tareas que no requieran una interfaz gracia. asi podemos ahorrar recursos de la PC. Windows en cambio posee su interfaz gracia integrada al sistema operativo.
A continuación se compara la información general, técnica y el ambiente gráfico de algunos sistemas operativos.

martes, 20 de septiembre de 2011

PROYECTO GNU





El proyecto GNU fue iniciado por Richard Stallman con el objetivo de crear un sistema operativo completamente libre; el sistema GNU.
El 27 de 1983 se anunció publicamente el proyecto por primera vez en el grupo de noticias net.unix-wizards. Al anuncio original, siguieeron otros ensayos escritos por Richard Stallman como el “Manifiesto GNU”, que establecieron sus motivaciones para realizar el proyecto GNU, entre las que destaca “volver al espíritu de cooperación que prevaleció en los tiempos iniciales de la comunidad de usuarios de computadoras”.


GNU es un acrónimo recursivo que significa GNU No es Unix (GNU is Not Unix). Puesto que en inglés “gnu” (en español “ñu”) se pronuncia igual que “new”, Richard Stallman recomienda pronunciarlo “guh-noo”. En español, se recomienda pronunciarlo ñu como el antílope africano o fonéticamente; por ello, el término mayoritariamente se deletrea (G-N-U) para su mejor comprensión. En sus charlas Richard Stallman finalmente dice siempre <>.



El dercho de leer

Por Richard Stallman

Este artículo fue publicado en el número de febrero de 1997 de Communications of the ACM (Vol.40, Número 2).





(de “El camino a Tycho”, una colección de artículos sobre los antecedentes de la Revolución Lunar, publicado en Luna City en 2096)


Para Dan Halbert el camino a Tycho comenzó en la universidad, cuando Lissa Lenz pidió prestado su ordenador. El de ella se había estropeado, y a menos que pudiese usar otro reprobaría su proyecto de fin de trimestre. No había nadie a quien se atreviera a pedírselo , excepto Dan. Esto puso a Dan en un dilema. Tená que ayudarle, pero si le prestaba su ordenador ella podrá leer sus libros. Dejando de lado el riesgo de ir a la cárcel durante muchos años por dejar leer sus libros, la simple idea le sorprendió al principio. Como a todo el mundo, se le había enseñado desde la escuela primaria que compartir libros era algo malo y desagradable, algo que sólo los piratas harían.


Además, no había muchas posibilidades de que la SPA (la “Software Protection Authority”, o Autoridad de Protección del Software), no lo descubriese. En sus clases de programación Dan habíaaprendido que cada libro tenía un control de copyright que informaba de cuándo y dónde fue leído, y quién lo leía, a la oficina central de licencias (usaban esa información para descubrir piratas, pero también para vender perfiles personales a otras compañías). La próxima vez que su ordenador se conectase a la red, la oficina central de licencias lo descubriría.
Él, como propietario del ordenador, recibiría el castigo más duro, por no tomar las medidas adecuadas para evitar el delito. Lissa no necesariamente pretendá leer sus libros. Probablemente lo único que ella necesitaba era escribir su proyecto. Pero Dan sabía que ella provenía de un familia de clase media que a duras penas se podía permitir pagar la matrícula, sin pensar en las tasas de lectura. Leer sus libros podía ser la única forma de terminar la carrera. Entendía la situación; él mismo había pedido un préstamo para pagar por los artículos de investigación que leía (el 10% de ese dinero iba a parar a los autores de los artículos, y como Dan pretendía hacer carrera en la universidad, esperaba que sus artículos de investigación, en caso de ser citados frecuentemente, le dieran los suficientes beneficios como para pagar el crédito).

lunes, 11 de julio de 2011

COMUNICACIÓN: El Editorial



REDES SOCIALES
Durante varios años, hasta la actualidad, las redes sociales nos han servido de mucho, pero a la vez han existido diferentes problemas ante este caso.


Las redes sociales han llegado a tal punto que han acosado a menores, algunos adolescentes se han vuelto adictos a muchas páginas que no tienen ningún beneficio.

La mayoría de personas se conecta mediante otras redes, como el Facebook, Twitter, Messenger, entre otras; pues estas páginas también tienen muchos riesgos que mucha gente no conoce o solo escucha como una noticia pasajera.

Por otro lado, hasta han llegado a secuestros de adolescentes, personas mayores que sienten sobre su identidad, para raptar a jovencitas aún menores de edad y usarlas o venderlas mediante la Internet.

Muchas veces, se ha encontrado una gran cantidad de personas conectadas a estas redes sociales, de tal manera que se ha vuelto una adicción.

Muchas de estas personas han conocido gente de otros lugares, países o ciudades, gente que ni conocemos realmente ni sabemos lo que hace.

Por eso debemos tener más cuidado al ingresar a estas páginas, que muchas veces han llevado a la muerte, tomar conciencia a varias realidades que existen por medio de Internet.

jueves, 14 de abril de 2011

¿Qué es Dreamweaver CS3?

Dreamweaver CS3 es un software fácil de usar que permite crear páginas web profesionales.

Las funciones de edición visual de Dreamweaver CS3 permiten agregar rápidamente diseño y funcionalidad a las páginas, sin la necesidad de programar manualmente el código HTML.

Se puede crear tablas, editar, marcos, trabajar con capas, insertar comportamientos Java Script, etc. , de una forma muy sencilla y visual.

Además inclue un softward de cliente FTP completo, permitiendo entre otras cosas trabajar con mapas visuales de los sitios web, actualizando el sitio web en el servidor sin salir del programa.

EDITAR PÁGINAS WEB

Cualquier editor de texto permite crear páginas web. Para ello es necesario crear los documento con la extensión HTML o HTM, e incluir como contenido del documento el código HTML deseado. Puede utilizarse incluso el Bloc de notas para hacerlo.

Pero crear páginas web mediante el código HTML es más costoso que hacerlo utilizando un editor gráfico. Al no utilizar un editor gráfico cuesta mucho más insertar cada uno de los elementos de la página, al mismo tiempo que es más complicado crear una apariencia profesional para la página.

Hoy en día existe una amplia gama de editores de páginas web. Uno de los más utilizados, y que destaca su sencillez y por las numerosas funciones que incluye, es Adobe Dreamweaver.

Además de Dreamweaver, existen otra serie de buenos editores de páginas web, como pueden ser Microsoft Frontpage, Adobe Pagemill, Adobe GoLive, NetObjects Fusion, CutePage, HotDog Proffesional, Netscape Composer y Arachnophilia, algunos de los cuales tienen la ventaja de ser gratuitos.


martes, 12 de abril de 2011

Páginas Web

¿Cuál es la última versión de Dreamweaver?
- Dreamweaver CS4

¿Qué programas conoces que construyan páginas web?

- HomeSite
- HTML-kit
- Dreamweaver
- Editor de código PSPad
- Adobe GoLive
- HTML-kit
- Kompozer
- TsWebEditor
- Ñandú
- Editplus
- Arachnophilia
- HTMLed pro
- CoffeeCup Free
- Frontpage


¿Qué es php?
- Es un lenguaje de programación interpretado, diseñado originalmente para la creación de páginas web dinámicas. Es usado principalmente para la interpretación del lado del servidor (server-side scripting) pero actualmente puede ser utilizado desde una interfaz de línea de comandos o en la creación de otros tipos de programas incluyendo aplicaciones con interfaz gráfica usando las bibliotecas Qt o GTK+.

¿Puedo hacer Página Web con java ?
- Si, porque te permite editar, ya que es un es un lenguaje de programacion, que solo pueden utilizar los que tienen conocimiento en programacion se manejan puros codigos, sirve para crear animaciones como de flash, para hacer programas y juegos.

martes, 29 de marzo de 2011

Dominios de Internet


Ejemplos de nombres de dominio:

.gt, para servicios de Guatemala
.es, para servicios de España
.eu, la región de Europa
.cr, para servicios de Costa Rica
.ru, para servicios de Rusia
.fr, para servicios de Francia
.do, para servicios de República Dominicana
.hn, para servicios de Honduras
.mx, para servicios de México
.sv, para servicios de El Salvador
.cl, para servicios de Chile
.co, para servicios de Colombia
.cn, para servicios de China
.ar, para servicios de Argentina
.bo, para servicios de Bolivia
.ec, para servicios de Ecuador
.py, para servicios de Paraguay
.pe, para páginas de Perú
.uy, para servicios de Uruguay
.ve, para servicios de Venezuela
.asia, la región de Asia
.lat, la región de Latinoamérica
.edu, para servicios de Educación
.gov y .gob, para Gobierno y Entidades Públicas
.info, para Información
.int, para Entidades Internacionales, organizaciones como la ONU
.jobs, para Departamentos de empleo y recursos humanos en empresas
.mil, para el Departamento de Defensa de los Estados Unidos (Único país con dominio de primer nivel para el ejército)
.mobi, para empresas de telefonía móvil o servicios para móvil.
.museum, para los Museos
.name, para Nombres de personas
.net, para Infraestructura de red
.org, para organizaciones
.pro, para profesionales con una titulación universitaria.
.tel, para servicios de comunicación por Internet
.travel, para páginas de la industria de viajes y turismo.
.fm, para páginas del país Estados Federados de Micronesia, pero usado también para estaciones de radio de frecuencia modulada
.tv, para páginas del país Tuvalu, pero usado también para estaciones de televisión
.tk, para páginas del país Tokelau; sin embargo se usan también como dominio y servidor propio ( "Autónomas" ). Actualmente pueden obtenerse de forma gratuita.
.com, son los dominios más extendidos en el mundo. Sirven para cualquier tipo de página web, temática, persona o entidad.
.biz prevista para ser usado por negocios.
.web es un dominio de internet de nivel superior, no oficial, que lleva propuesto desde 1995.

jueves, 24 de marzo de 2011

Definición de:

DOMINIO:
Es una red de identificación asociada a un grupo de dispositivos o equipos conectados a la red Internet.El propósito principal de los nombres de dominio en Internet y del sistema de nombres de dominio (DNS), es traducir las direcciones IP de cada nodo activo en la red, a términos memorizables y fáciles de encontrar. Esta abstracción hace posible que cualquier servicio (de red) pueda moverse de un lugar geográfico a otro en la red Internet, aun cuando el cambio implique que tendrá una dirección IP diferente.


SERVIDOR WEB:
Es un programa que procesa cualquier aplicación del lado del servidor realizando conexiones bidireccionales y/o unidireccionales y síncronas o asíncronas con el cliente generando o cediendo una respuesta en cualquier lenguaje o Aplicación del lado del cliente. El código recibido por el cliente suele ser compilado y ejecutado por un navegador web. Para la transmisión de todos estos datos suele utilizarse algún protocolo. Generalmente se utiliza el protocolo HTTP para estas comunicaciones, perteneciente a la capa de aplicación del modelo OSI. El término también se emplea para referirse al ordenador que ejecuta el programa.


HOSTING:
Servicio que ofrecen algunas compañías (los webhost) en Internet que consiste en ceder un espacio en sus servidores para subir (alojar, hostear) un sitio web para que pueda ser accedido en todo momento de forma online.

Suelen contar con diversos planes con distintos precios para distintas necesidades. Para armar los distintos planes suelen limitan el espacio en disco, el bandwith, las plataformas y las herramientas y recursos que ofrecen.



ADOBE:
Compañía norteamericana especializada en el mundo de la autoedición y los aspectos gráficos de la informática. Creadora del Adobe Type Manager, software de gestión de fuentes de letras utilizado por los principales programas de diseño e ilustración del mercado, así como en numerosos procesadores de textos para entornos Windows.


WEBSITE:
Conjunto de textos, gráficos, fotografías, sonidos o videos que unidos a otros elementos análogos como pueden ser banners o hipervínculos y que han sido creados para su exposición en la Red para que sean visionados por terceros a través de un navegador.

miércoles, 16 de marzo de 2011

GENERACIONES DE COMPUTADORAS

GENERACIÓN CERO (1942 - 1945)


Aparecieron los primeros ordenadores analógicos: comenzaron a construirse a principios del siglo XX los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se calculaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos.

La generación cero que abarcó la década de la segunda guerra mundial un equipo de científicos y matemáticos crearon lo que se considera el primer ordenador digital totalmente eléctrico: EL COLOSSUS, este incorporaba 1500 válvulas o tubos de vacío y era ya operativo.

Fue utilizado por el equipo dirigido por Alan Turing para decodificar los mensajes de radio cifrado de los Alemanes.


PRIMERA GENERACIÓN (1951 - 1958)

En esta generación había un gran desconocimiento de las capacidades de las computadoras se saturaría el mercado de los Estado Unidos en el campo de procesamiento de datos. Estas tenían las siguientes características:

• Emplearon bulbos (Válvulas al vacío) para procesar la información.

• Esta generación de máquinas eran muy grandes y costosas.

• Alto consumo de energía. El voltaje de los bulbos era de 300v y la posibilidad de fundirse era grande, además de que requerían de sistemas de aire acondicionado especial.

• Uso de tarjetas perforadas. Se utilizaba un modelo de codificación de la información originado en el siglo pasado, las tarjetas perforadas.

• Almacenamiento de información en tambor magnético interior. Un tambor magnético dispuesto en el interior de la computadora, recogía y memorizaba los datos y los programas que le suministraban mediante tarjetas.

• Lenguaje máquina. La programación se codificaba en un lenguaje muy rudimentario denominado “Lenguaje Máquina” el cual consistía en la yuxtaposición de largos bits o cadenas de ceros y unos, la combinación de los elementos del sistema binarios era la única manera de “instruir a la máquina”, pues no entendía más lenguaje que el numérico.

• Tenían aplicaciones en el área científica y militar.

• Eckert y Mauchly contribuyeron al desarrollo de las computadoras de la primera generación, formando una compañía privada y construyendo la UNIVAC I, la cual utilizó para evaluar el censo de 1950 en los Estados Unidos.

En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Hernan Hollerith, quien además fundó una compañía que con el paso del tiempo se conocería como IBM (Internacional Bussins Machines).
Después se desarrolló la IBM 701 de la cual se entraron 18 unidades entre 1953 y 1957.


La computadora más exitosa de esta generación fue la IBM 650 la cual usaba un esquema de memoria secundaria llamado tambor magnético que es el antecesor de los discos actuales.


SEGUNDA GENERACIÓN (1959 - 1954)

La segunda generación se basa en el funcionamiento del transistor, lo que hizo posible una nueva generación de computadoras más pequeñas, más rápidas y con menores necesidades de ventilación, por todos estos motivos la densidad del circuito podía ser aumentada significativamente, lo que quería decir que los componentes podían colocarse mucho más cerca unos de otros y así ahorrar más espacio.

Diversas compañías como IBM, UNIVAC, HONEYWELL, construyen ordenadores de este tipo. Las principales características son:

• El componente principal es un trozo de semiconductor: el transitor.

• Disminución del tamaño.

• Disminución del consumo y la producción del calor.

• Aumento de la factibilidad.

• Mayor rapidez.

• Memoria in terna de núcleo de ferrita y tambor magnético.

• Instrumento de almacenamiento: accesorio para almacenar en el exterior información (cintas y discos).

• Mejoran los dispositivos de entradas y salidas, para la mejor lectura de las tarjetas perforadas, se disponía de células fotoeléctricas.

• Introducción de elementos modulares.

• Las impresoras aumentan su capacidad de trabajo.

• Lenguajes de programación más potentes, ensambladores de alto nivel (Fortran, Cobol y Algol).

• Se usaban para nuevas aplicaciones, como en los sistemas de reservación de líneas aéreas y simulaciones para uso general. Las empresas comenzaron a usarlas en tareas de almacenamiento de registros, nóminas y contabilidad.



TERCERA GENERACIÓN (1964 - 1971)


Con los progresos de la electrónica y los avances en comunicación con las computadoras en la década de 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1064. Las principales características son:

•Circuito integrado. Miniaturización y reunión de centenares de elementos en una placa de silicio o “Chip”.

• Menor consumo de energía.

• Apreciable reducción de espacio

• Aumento de la fiabilidad.

• Teleprocesos. Se instalan terminales remotos que acceden a la computadora central para realizar operaciones, extraer o introducir información en bancos de datos, etc.

• Trabajo a tiempo compartido: uso de las computadoras por varios clientes a tiempo compartido, pues el aparato puede discernir entre diversos procesos que realiza simultáneamente.

• Multiprogramación.

• Renovación de periféricos.

• Generalización de los lenguajes de alto nivel.

• Instrumentalización del sistema.

• Compatibilidad.

• Ampliación de aplicaciones: en procesos industriales, en la educación, en el hogar, agricultura, etc.

• La miniaturización de los sistemas lógicos conduce a la fabricación de la mini computadora, que agiliza y descentraliza los procesos.



CUARTA GENERACIÓN (1972 - 1984)

El Microprocesador: el proceso de reducción del tamaño de los componentes llega a operar a escalas microscópicas. La microminiaturización permite construir el microprocesador, circuito integrado que rige las funciones fundamentales del ordenador.

Las aplicaciones del microprocesador se han proyectado más allá de la computadora y se encuentra en multitud de aparatos, sean instrumentos médicos, automóviles, juguetes, electrodomésticos, etc.
Memorias Electrónicas: Se desechan las memorias internas de los núcleos magnéticos de ferrita y se introducen memorias electrónicas, que resultan más rápidas. Al principio presentan el inconveniente de su mayor costo, pero este disminuye con la fabricación en serie.

Sistema de tratamiento de base de datos: el aumento cuantitativo de las bases de datos lleva a crear formas de gestión que faciliten las tareas de consulta y edición. Los sistemas de tratamiento de base de datos consisten en un conjunto de elementos de hardware y software interrelacionados que permite un uso sencillo y rápido de la información. Las principales características son:

• Aparición del microprocesador.

• Memoria electrónica.

• Sistema de tratamiento de base de datos.

• Se fabrican computadoras personales y microcomputadoras.

• Se utiliza el disquete (Floppy Disk) como unidad de almacenamiento.

• Aparecieron gran cantidad de lenguajes de programación y las redes de transmisión de datos (Teleinformática).

jueves, 10 de marzo de 2011


HISTORIA DE LA COMPUTACIÓN
Uno de los primeros dispositivos mecánicos para contar el ABACO, cuya historia se remonta a 3000 años AC desarrollada por los chinos y utilizado por civilizaciones griegas y romanas. Este dispositivo es muy sencillo, consta de un marco rectangular de madera ensartado en varillas en las que se desplazan bolas agujeradas de izquierda a derecha. Al desplazar las cuentas(bolas) sobre las varillas, sus posiciones representan valores almacenados, y es mediante estas posiciones que se representa y almacena datos. A este dispositivo no se le puede llamar computadora pues carece de un elemento fundamental llamado programa.

En el Siglo XVII, el creciente interés en Europa por las ciencias tales como la astronomía y la navegación, impulsó a las mentes creativas a simplificar los cálculos, se encontraba en uso “la regla del cálculo”, calculadora basada en las invenciones de y Napier, Gunther Bissaker. En 1614, el escosés Napier había anunciado el descubrimiento de los logaritmos permitiendo que los resultados de complicadas multiplicaciones se redujeran a un proceso simple de suma. Por su parte Bissaker coloca las líneas de ambos sobre un pedazo de madera, creando de esta manera lña regla del cálculo.

Blaise Pascal a la edad de 19 años, además de escribir tratados filosóficos, literarios, científicos y matemáticos inventó una máquina para calcular capaz de realizar sumas y restas, parecida a los cuenta kilómetros de los automóviles, el cual utilizaba una serie de ruedas de 10 dientes en las que cada uno de los dientes representaba un dígito del 0 al 9; las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correctos.
Los conceptos de esta máquina se utilizaron durante mucho tiempo, pero estas calculadoras exigían intervención de un operador. Esto era sumamente largo y por lo tanto produce errores en los informes.

En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibnizf fue el siguiente en avanzar en el diseño de una máquina calculadora mecánica, perfeccionó la función de multiplicar, efectuaba divisiones y raíces cuadradas.

Charles Babbage (1792 - 1781), profesor de matemáticas de la Universidad de Cambrigde, Inglaterra, desarrolla en 1823 el concepto de un artefacto, que él denomina “máquina diferencial”. La máquina estaba concebida para realizar cálculos, almacenar y seleccionar información, resolver problemas y entregar resultados impresos. La máquina de Babbage, que se parecía mucho a una computadora, no llegó jamás a construirse. Los planes de Babbage fueron demasiado ambiciosos para su época. Este avanzado concepto, con respecto a la simple calculadora, le valió a Babbage ser considerado el precursor de la computadora. Ada Augusta Byron, luego Condesa de Lovelace, hija del poeta inglés Lord Byron, que le ayuda en el desarrollo del concepto de lla Máquin a diferencial, creando programas para la máquina analítica, es reconocida y respetada, como el primer programador de computadoras.

Joseph Jacquard (1752-1834), industrial francés es el siguiente en aportar al moderno concepto de las computadoras, para seguir adelante. Jacquard tuvo la idea de usar tarjetas perforadas para manejar agujas de tejer, en telares mecánicos. Un conjunto de tarjetas constituían un programa, el cual creaba diseños textiles.

Una ingeniosa combinación de los conceptos de Babbage y Jacquard, dan origen en 1890 a un equipo electromecánico, que salva de caos a la Oficina de Censo de Estados Unidos. Hermann Hollerith usa una perforadora mecánica para representar letras del alfabeto y dígitos en tarjetas de papel, que tenían 80 columnas y forma rectangular. La máquina de Hollerith usando información perforada en las tarjetas, realiza en corto tiempo la tabulación de muchos datos.

En el año 1944 se construyó en la Universidad de Harvard, la MARK I, diseñada por un equipo encabezada por el Dr. Howard Aiken, es esta la primera máquina procesadora de información. La Mark I funcionaba eléctricamente, tenía 760.000 ruedas y relés y 800 Km. De cable y se basaba en la máquina analítica de Babbage, a pesar de su peso superior a 5 toneladas y su lentitud comparada con los equipos actuales fue la primera máquina en poseer todas las características de una verdadera computadora.

martes, 1 de marzo de 2011

Preguntas:

- ¿Cuál es tu meta u objetivo a cumplir en este año?
Que nuestra promoción se distinga de las demás,que este año nos sirva para tener nuevas experiencias, que nos serviran más adelante,que el cariño y el aprecio a nuestros profesores sea la misma y que todos permanescamos unidos.

- ¿Cuáles son las metas que te trasarías al salir de las aulas guadalupanas?
Después de concluir mis estudios de secundaria...aún nos queda la universidad, prepararme para poder ingresar a la carrera que e elegido estudiar.