=YolviTo=

Aprendiendo…

NANOTECNOLOGIA

Posted by yolvi en 11/07/2009

La nanotecnología es un campo de las ciencias aplicadas dedicado al control y manipulación de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas (nanomateriales). Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros. Para hacerse una idea de lo pequeño que puede ser un nanobot, más o menos un nanobot de 50 nm tiene el tamaño de 5 capas de moléculas o átomos (depende de qué esté hecho el nanobot).

nano- es un prefijo griego que indica una medida, no un objeto, de manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar, y cohesionado exclusivamente por la escala de la materia con la que trabaja.

Definición

La nanotecnología promete soluciones vanguardistas y más eficientes para los problemas ambientales, así como muchos otros enfrentados por la humanidad. Las nanotecnologías prometen beneficios de todo tipo, desde aplicaciones médicas nuevas o más eficientes a soluciones de problemas ambientales y muchos otros; sin embargo, el concepto de nanotecnología aún no es muy conocido en la sociedad.

Un nanómetro es la mil millonésima parte de un metro (10^(-9) metros). Para comprender

Historia

El ganador del premio Nobel de Física (1965), Richard Feynman fue el primero en hacer referencia a las posibilidades de la nanociencia y la nanotecnología en el célebre discurso que dio en el Caltech (Instituto Tecnológico de California) el 29 de diciembre de 1959 titulado En el fondo hay espacio de sobra (There’s Plenty of Room at the Bottom).

Otro hombre de esta área fue [[cuando Rosalind Franklin, James Dewey Watson y Francis Crick propusieron que el ADN era la molécula principal que jugaba un papel clave en la regulación de todos los procesos del organismo y de aquí se tomó la importancia de las moléculas como determinantes en los procesos de la vida. rse para solucionar muchos de los problemas de la humanidad, pero también podría generar armas poderosísimas. Creador del Foresight Institute y autor de libros como Máquinas de la Creación Engines of Creation muchas de sus predicciones iniciales no se cumplieron, y sus ideas parecen exageradas en la opinion ==

Pero estos conocimientos fueron más allá ya que con esto se pudo modificar la estructura de las moléculas como es el caso de los polímeros o plásticos que hoy en día los encontramos en todos nuestros hogares y que sin ellos no podríamos vivir. Pero hay que decir que este tipo de moléculas se les puede considerar “grandes”…

[[Con todos estos avances el hombre tuvo una gran fascinación por seguir investigando más acerca de estas moléculas, ya no en el ámbito de materiales inertes, sino en la búsqueda de moléculas orgánicas que se encontrarán en nuestro organismo.

de otros expertos, Hoy en día la medicina se le da más interés a la investigación en el mundo microscópico ya que en este se encuentran posiblemente las alteraciones estructurales que provocan la enfermedad, y no hay que decir de las ramas de la medicina que han salido mas beneficiadas como es la microbiología. inmunología, fisiología, en fin casi todas las ramas de la medicina. Con todos estos avances han surgido también nuevas ciencias como es la ingeniería genética que hoy en día todos han oído escuchar acerca de las repercusiones que puede traer la humanidad como es la clonación o la mejora de especies. Entre estas ciencias también se encuentra otras no muy conocidas como es la nanotecnología, a la cual se le puede definir como aquella que se dedica a la fabricación de la tecnología en miniatura.

La nanotecnología, a diferencia de la ingeniería genética, todavía no esta en pasos de desarrollo; Se le puede considerar como “ una ciencia teórica” ya que todavía no se le ha llevado a la practica ya que aún no es viable, pero las repercusiones que acarreara para el futuro son inmensas.

Inversión

Algunos países en vías de desarrollo ya destinan importantes recursos a la investigación en nanotecnología. La nanomedicina es una de las áreas que más puede contribuir al avance sostenible del Tercer Mundo, proporcionando nuevos métodos de diagnóstico y cribaje de enfermedades, mejores sistemas para la administración de fármacos y herramientas para la monitorización de algunos parámetros biológicos.

Actualmente, alrededor de 40 laboratorios en todo el mundo canalizan grandes cantidades de dinero para la investigación en nanotecnología. Unas 300 empresas tienen el término “nano” en su nombre, aunque todavía hay muy pocos productos en el mercado.

Algunos gigantes del mundo informático como IBM, Hewlett-Packard (HP), NEC e Intel están invirtiendo millones de dólares al año en el tema. Los gobiernos del llamado Primer Mundo también se han tomado el tema muy en serio, con el claro liderazgo del gobierno estadounidense, que para este año ha destinado 570 millones de dólares a su National Nanotechnology Initiative.

En España, los científicos hablan de “nanopresupuestos”. Pero el interés crece, ya que ha habido algunos congresos sobre el tema: en Sevilla, en la Fundación San Telmo, sobre oportunidades de inversión, y en Madrid, con una reunión entre responsables de centros de nanotecnología de Francia, Alemania y Reino Unido en la Universidad Autónoma de Madrid.

Ensamblaje interdisciplinario

La característica fundamental de la nanotecnología es que constituye un ensamblaje interdisciplinar de varios campos de las ciencias naturales que están altamente especializados. Por tanto, los físicos juegan un importante rol no sólo en la construcción del microscopio usado para investigar tales fenómenos sino también sobre todas las leyes de la mecánica cuántica. Alcanzar la estructura del material deseado y las configuraciones de ciertos átomos hacen jugar a la química un papel importante. En medicina, el desarrollo específico dirigido a nanopartículas promete ayuda al tratamiento de ciertas enfermedades. Aquí, la ciencia ha alcanzado un punto en el que las fronteras que separan las diferentes disciplinas han empezado a diluirse, y es precisamente por esa razón por la que la nanotecnología también se refiere a ser una tecnología convergente.

Una posible lista de ciencias involucradas sería la siguiente:

  • Química (Moleculares y computacional)
  • Bioquímica
  • Biología molecular
  • Física
  • Electrónica
  • Informática
  • Matemáticas

Nanotecnología avanzada

La nanotecnología avanzada, a veces también llamada fabricación molecular, es un término dado al concepto de ingeniería de nanosistemas (máquinas a escala nanométrica) operando a escala molecular. Se basa en que los productos manufacturados se realizan a partir de átomos. Las propiedades de estos productos dependen de cómo estén esos átomos dispuestos. Así por ejemplo, si reubicamos los átomos del grafito (compuesto por carbono, principalmente) de la mina del lápiz podemos hacer diamantes (carbono puro cristalizado). Si reubicamos los átomos de la arena (compuesta básicamente por sílice) y agregamos algunos elementos extras se hacen los chips de un ordenador.

A partir de los incontables ejemplos encontrados en la biología se sabe que miles de millones de años de retroalimentación evolucionada puede producir máquinas biológicas sofisticadas y estocásticamente optimizadas. Se tiene la esperanza que los desarrollos en nanotecnología harán posible su construcción a través de algunos significados más cortos, quizás usando principios biomiméticos. Sin embargo, K. Eric Drexler y otros investigadores han propuesto que la nanotecnología avanzada, aunque quizá inicialmente implementada a través de principios miméticos, finalmente podría estar basada en los principios de la ingeniería mecánica.

Determinar un conjunto de caminos a seguir para el desarrollo de la nanotecnología molecular es un objetivo para el proyecto sobre el mapa de la tecnología liderado por Instituto Memorial Battelle (el jefe de varios laboratorios nacionales de EEUU) y del Foresigth Institute. Ese mapa debería estar completado a finales de 2006.

thumb463x_nokiamorph1

nanotecnologia-moleculas-trabajadoras

 

Kohlenstoffnanoroehre_Animation

El pase de diapositivas requiere JavaScript.

Anuncios

Posted in Tecnologias de informacion | Leave a Comment »

Microsoft

Posted by yolvi en 20/06/2009

Microsoft Corporation (NASDAQ: MSFT) es una empresa multinacional estadounidense, fundada en 1975 por Bill Gates y Paul Allen. Dedicada al sector de la informática, con sede en Redmond, Washington, Estados Unidos. Microsoft desarrolla, fabrica, licencia y produce software y equipos electrónicos. Siendo sus productos más usados el Sistema operativo Microsoft Windows y la suite Microsoft Office, los cuales tienen una importante posición entre los ordenadores personales. Con una cuota de mercado cercana al 90% para Office en 2003 y para Windows en el 2006. Siguiendo la estrategia de Bill Gates de “tener una estación de trabajo que funcione con nuestro software en cada escritorio y en cada hogar”.

La compañía también suele ser nombrada como MS, por sus iniciales en el NASDAQ: MSFT o simplemente como Redmond, debido a la gran influencia que tiene sobre la localidad de su centro de operaciones. Tiene 80.000 empleados en 102 países diferentes y contó con unos ingresos de 51.120 millones de dólares durante el año 2007

Fundada para desarrollar y vender intérpretes de BASIC para el Altair 8800, a mediados de los 80 consiguió dominar el mercado de ordenadores personales con el sistema operativo MS-DOS. La compañía inició una Oferta Pública de Venta en el mercado de valores en 1986, la cual, debido a la subida de cotización de las acciones, llevó a 4 empleados a convertirse en milmillonarios y a 12,000 en millonarios.

Durante su historia, ha sido objeto de críticas, como acusaciones de realizar prácticas monopolísticas que la han llevado ante la Comisión Europea y el Departamento de Justicia de los Estados Unidos.

Microsoft afianzó su posición en otros mercados como el de sistemas operativos y suites de oficina, con recursos como la red de televisión por cable MSNBC, el portal de Internet MSN, y la enciclopedia multimedia Microsoft Encarta, producto y servicio cancelado por la empresa a primeros de 2009 debido a la competencia de la libre Wikipedia. La compañía también comercializa hardware como el ratón de Microsoft y productos de entretenimiento casero como Xbox, Xbox 360, Zune y WebTV.Microsoft ha dado soporte a sus usuarios a través de Usenet en grupos de noticias y en Internet, también premia con la categoría de Microsoft MVP (Most Valuable Professional) a aquellos voluntarios que demuestran ser útiles en la asistencia a los clientes. Su web oficial es una de las páginas más visitadas de la red, recibiendo por día más de 2’4 millones de visitas únicas según datos de Alexa, que situó el 11 de mayo de 2008 a Microsoft.com como la 14ª página web con más visitas del mundo.

En agosto de 1985, Microsoft e IBM colaboraron en el desarrollo de una familia de sistemas operativos diferentes llamados OS/2.[36] El 20 de noviembre de 1985, Microsoft lanzó la primera versión para minoristas de su sistema operativo Microsoft Windows. Originalmente, Windows no era más que una extensión gráfica para MS-DOS.[37]

El 13 de marzo de 1986, la compañía hizo pública una Oferta Pública de Venta, con un precio inicial de 21 dólares por acción. Al terminar el primer día, la acción ya tenía un valor efectivo de 28 dólares. En 1987, Microsoft lanzó su primera versión de OS/2 para OEMs.[38]

, la empresa se divide en divisiones que desarrollan diferentes productos. En abril del 2002, Microsoft anunció la división de la compañía en siete departamentos diferentes. Pero, más adelante, el 25 de septiembre del 2005, se anunció la unificación de los departamentos en tres divisiones empresariales.

 

División de Retail y Consumo

La División de Retail y Consumo[115] (en inglés, Platform Products and Services Division)[116] produce el producto estrella de la compañía, Windows. Además, es la encargada del servicio MSN y de la revista Slate (adquirida el 21 de diciembre del 2004 por The Washington Post).[117]

A finales de 1997, Microsoft compra el servicio de webmail Hotmail,[118] Que pasará a llamarse MSN Hotmail. Con esta compra, la compañía tratará de hacer frente a AOL.[118]

En el año 1999, Microsoft desarrolla el programa de mensajería instantánea MSN Messenger, que tuvo un gran éxito en su lanzamiento. Con la llegada de Vista, MSN Messenger pasa a llamarse Windows Live Messenger[119]

Microsoft Visual Studio es el conjunto de aplicaciones y herramientas de programación de la compañía. El producto se caracteriza por su fácil unión con las APIs de Windows, aunque debe ser configurado especialmente en el caso de que sea usado con librerías que no son de Microsoft. La versión actual es Visual Studio 2008. La versión anterior, Visual Studio 2005 tuvo un gran desarrollo respecto a sus predecesor, Visual Studio.Net 2003, nombrado posteriormente a .NET initiative, una iniciativa de Marketing que cubre un conjunto de tecnologías. La definición de .NET continua su evolución. En el 2004, .NET destaca por su facilidad de uso de las aplicaciones basadas en Windows que usan Internet.

 

División de Business

Entrada al edificio 17 del campus principal de la compañía de Redmond

La División de Business se encarga en el desarrollo de la suite de ofimática Microsoft Office. Microsoft Office incluye varios programas, entre los que destacan Word (procesador de textos), Access (aplicación para base de datos), Excel (hoja de cálculo), Outlook (agenda electrónica), frecuentemente usado con Exchange Server), PowerPoint (software de presentación de diapositivas) y Publisher (realización de diferentes publicaciones). A partir de la versión 2003, se incluyen nuevos programas como Visio, Project, MapPoint, InfoPath y OneNote.[120] Cabe destacar que, anterior al desarrollo de excel, Microsoft ya comercializaba un programa de hojas de cálculo llamado Multiplan para el sistema operativo CP/M.[28]

La división se centra en el desarrollo de aplicaciones para gestiones empresariales. Fue creada en el año 2001 tras la adquisición de la empresa Great Plains, empresa de software.[121] Tras esto, Microsoft adquirió Navision para tener una entrada similar en Europa.[122] El resultado de esta operación fue la publicación en 2006 Microsoft Dynamics NAV, software Planificación de recursos empresariales de planificación de recursos desarrollado inicialmente por Navision, empresa que además comercializaba las aplicaciones Axapta y Solomon, orientadas a mercados similares. Todas estas aplicaciones se combinaron dentro de su software ERP.[123]

 

División Entertainment & Devices

Xbox 360

Microsoft ha tratado de expandirse en muchos otros mercados, con productos como Windows CE para PDAs y teléfonos inteligentes. Inicialmente, entró en el mercado de servicios móviles a través de Windows CE para dispositivos de mano, actualmente desarrolla un sistema operativo basado en CE, Windows Mobile. La empresa produce MSN TV, antes llamado WebTV, que permite navegar por internet a través del televisor.

La división vende videojuegos que se ejecutan en computadores con el sistema Windows, algunos juegos destacados producidos por Microsoft son Age of Empires, Halo y Microsoft Flight Simulator (simulador de vuelo), con estos juegos es posible conectarse a MSN Games y competir por internet contra otros usuarios. Por otro lado, Microsoft vende la enciclopedia electrónica Encarta.

La compañía entró en el mercado de las videoconsolas con el lanzamiento de la Xbox, inicialmente, fue lanzada el 8 de noviembre del 2001 en Estados Unidos con un precio inicial de 299$.[124] La propia compañía desarrolla y publica sus propios videojuegos para esta consola, con la ayuda de su subsidiaria Microsoft Game Studios, además de terceros como Electronic Arts y Activision que pagan derechos de autor para publicar juegos y accesorios.[125]

El 22 de noviembre de 2005, Microsoft lanza en los EE. UU. su segunda videoconsola de sobremesa conocida como Xbox 360.[126] Con esta nueva consola Microsoft espera amortizar las pérdidas sufridas con la Xbox original.[127] [128]

Además de la línea de productos de Xbox, Microsoft también comercializa hardware, tales como ratones, teclados, y gamepads. El 15 de noviembre de 2007, Microsoft anunció la compra de Musiwave, plataforma móvil de música.[129] [130]

 

Microsoft Press

Microsoft Press es el brazo editorial de Microsoft, la liberación de libros por lo general se ocupa de las distintas tecnologías de Microsoft actual. Microsoft Prensa se presentó por primera vez los libros El Libro de Apple Macintosh Cary Lu y reflexiones para el IBM PC por Peter Norton en 1984 en la Costa Oeste Computer Faire. El editor fue a liberar libros reconocibles por otros autores como Charles Petzold, Steve McConnell, Mark Russinovich y Jeffrey Richter. Microsoft Press distribuye sus títulos a través de la Safari Books Online e-servicio de referencia

Cultura de negocios

RedWest campus de Microsoft.

A Microsoft se la describe frecuentemente como, compañía con cultura empresarial fundamentada en los desarrolladores. Redmond recluta a jóvenes universitarios desarrolladores de software y los mantiene en la empresa. La toma de decisiones se lleva a cabo por desarrolladores. Se podría decir que los desarrolladores de software en Microsoft están considerados como las “estrellas” de la compañía, mientras que en otras empresas como en IBM, éstas son los agentes de venta.[131] [132]

Microsoft realiza pruebas a los productos que fabrica en situaciones reales.[133] La compañía es también conocida por su proceso de contratación, llamado “Microsoft interview” (La entrevista de Microsoft), este proceso ha sido imitado por otras compañías.[131] Por diversión, Microsoft acoge en el Campus de Redmond el rompecabezas de Microsoft, un juego de competición en el que varios equipos compiten para resolver una serie de puzzles.[134]

Vista del RedWest campus de Microsoft.

En 2006, los empleados de Microsoft, sin incluir a Bill Gates, donaron cerca de 2’5 billones de dolares a ONGs, convirtiendo a la compañía en la primera del mundo en donaciones por empleado.[135] En Estados Unidos, Microsoft iguala las donaciones que hechas por sus empleados, en total, anualmente dona cerca de 12 mil millones de dolares.[136] En 2004, Bill Gates encabezó la lista de los mayores filántropos del mundo, donando cerca de 30 mil millones de dolares.[137] En el años 2006, Gates y su esposa, Melinda Gates, fueron galardonados con el Premio Príncipe de Asturias a la Cooperación Internacional, el jurado valoró “el ejemplo que representan de generosidad ante los males que asolan el mundo“.[138]

Cultura de usuario

En Microsoft Developer Network (o MSDN) se encuentran disponibles referencias técnicas para desarrolladores y artículos de varias revistas de Microsoft como Microsoft Systems Journal. MSDN además permite la suscripción para usuarios y compañías. Existen además suscripciones más caras que ofrecen acceso a versiones beta antes de su publicación.[139] [140] En años recientes, Microsoft lanzó un sitio web para la comunidad de desarrolladores y usuarios llamado Channel9, con herramientas modernas como un foro y una wiki.[141] Otra web que proporciona diariamente videos y otros servicios, On10.net, fue publicada el 3 de marzo del 2006.[142]

La mayor parte del soporte técnico que ofrece Microsoft se hace a través de grupos de noticias de Usenet. Existen varios grupos de noticias para cada producto de la empresa, y a menudo están supervisados por empleados de la compañía.[23] Los usuarios que colaboran y ayudan pueden ser elegidas por otros usuarios o empleados de Microsoft para que se les conceda el estatus de Microsoft Most Valuable Professional (MVP), estos usuarios tienen además posibilidades de ganar premios u otros beneficios.[143] [144]

Campus de Redmond

Campus de Redmond de Microsoft

La sede principal de Microsoft se encuentra en la ciudad de Redmond, a 21 kilómetros de Seattle. En ella se encuentra el Campus de Redmond de Microsoft, un complejo de más de 80 edificios donde se encuentran sus trabajadores, entre los que se encuentran, junto a programadores; empleados de limpieza, jardineros y cocineros, entre otros. El Campus cuenta con oficinas, viviendas, un museo, un paseo conmemorativo de cada producto lanzado por la empresa y un lago llamado “Bill” en honor a Gates. En total en estas instalaciones viven cerca de 45.000 personas.[145] [131]

La vida en el Campus se rige por unas normas estrictas, como la prohibición de fumar dentro del edificio y a menos de diez metros de la entrada y en cuanto a la distribución de los despachos, los despachos que estén cerca de la ventana son reservados para los trabajadores con más experiencia, los interiores quedan para los que tengan menos experiencia. También se permite a los trabajadores personalizar sus habitaciones pero se prohíbe pintar las paredes, ya que son frecuentes los traslados de habitaciones.[131] 

Microsoft en la Fórmula 1

Microsoft firmó un contrato con la Federación Internacional del Automóvil (FIA), organizadora del mundial de Fórmula 1, para convertirse en el único desarrollador y suministrador de las Unidades de Control Electrónico (Centralita electrónica) de los monoplazas.[146] La ECU se encarga de controlar toda la mecánica del vehículo.[147] Hay que señalar que anteriormente cada escudería de Fórmula 1 podía utilizar su propia ECU. Este contrato se mantendrá hasta el año 2010 y responde a la estrategia llevada a cabo por la FIA para reducir costes.[146] [148]

Esta medida ha levantado polémica por parte de algunas escuderías de Fórmula 1. El motivo de estas quejas se debe a que la nueva ECU fue ideada por McLaren, a la que acusan de tener ventaja. Además, la ECU no transmite fielmente todos los datos del monoplaza, por lo que el rendimiento de este puede verse afectado.[147]

Asuntos Corporativos

Estructura corporativa

La empresa es dirigida por un Consejo de administración compuesto por diez personas, la mayoría de ellas no guarda relación directa con ella (como es habitual para las sociedades que cotizan en Bolsa). Los actuales miembros de la junta directiva son: Steve Ballmer, James Cash, Dina Dublon, Bill Gates, Raymond Gilmartin, Reed Hastings, David Marquardt, Charles Noski, Helmut Panke, y Jon Shirley.[149] Los diez miembros de la junta directiva son elegidos cada año en la junta de accionistas , y los que no obtienen una mayoría de votos debe presentar una renuncia al Consejo, que posteriormente debe elegir si acepta o no la dimisión. Hay cinco comisiones dentro de la junta que supervisan cuestiones más específicas. Estos comités incluyen el Comité de Auditoría, que se ocupa de las cuestiones de la contabilidad con la empresa incluida la auditoría y presentación de informes, la Comisión de Compensación, que aprueba la compensación recibida por el presidente y los empleados de la empresa, el Comité de Finanzas, que se ocupa de los asuntos financieros, como proponer las fusiones y adquisiciones , El Comité de Nombramientos y Gobernanza, que se ocupa de diversas cuestiones de las empresa, en particular el nombramiento de la junta directiva y el Comité de Cumplimiento Antimonopolio, que trata de impedir las prácticas de la compañía de violar las leyes antimonopolio.[150] [151]

Logotipo de Microsoft en la entrada al Campus de Redmond.

Existen otros aspectos en la estructura organizativa de Microsoft. Para asuntos globales existe el equipo ejecutivo, compuesto por dieciséis funcionarios de la empresa en todo el mundo, que se encargan de diversas funciones. Además del equipo ejecutivo está también el Consejo de Personal Corporativo, que se ocupa de todas las funciones claves del personal de la empresa, incluyendo la aprobación de las políticas corporativas. Otros ejecutivos son el Presidentes y Vicepresidentes de las distintas divisiones de productos, los dirigentes de la sección de marketing, y el Gerente de Informática, entre otros.[152] [153]

Stock

Cuando la compañía lanzó el 13 de marzo de 1986 su Oferta Pública de Venta, el precio de las acciones fue de 21 dólares por acción.[154] [155] Al cierre del primer día, las acciones habían cerrado en 28 dólares.[155] El cierre inicial y subsiguiente aumento en los años siguientes convirtió en millonarios a varios de sus empleados que poseían acciones de la empresa.[156] [157] [158] El precio de las acciones llegó a su máximo en 1999, con un valor en torno a los 119 dólares por acción. La empresa sin embargo dejó de ofrecer dividendos hasta el año 2003.[156] [155] A partir de ese año, el valor de las acciones ha ido cayendo ligeramente.

Diversidad

Microsoft ha recibido diversos reconocimientos por sus políticas contra la discriminación por orientación sexual, en el año 2001, la agrupación Los Angeles Gay & Lesbian Center galardonó a Microsoft con el premio Corporate Vision Award, que es otorgado anualmente a la persona u organización que destaque en su apoyo a los homosexuales.[159] chnol En 2005, Microsoft recibió una calificación de 100% en el “Índice de Igualdad Corporativa” de la Campaña de Derechos Humanos, una clasificación de las empresas según su políticas en materia LGBT(lesbianas, gays, bisexuales y transexuales). Esta calificación se ha obtenido en parte gracias a la labor del grupo Gay and Lesbian Employees at Microsoft (empleados gays y lesbianas de Microsoft), conocido con las siglas de GLEAM, Microsoft introdujo en sus políticas contra la discriminación la libertad de género y condicións en abril del 2005. Experimentando un aumento en su calificación desde el 86% en 2004 hasta el 100% en 2005. En el mismo informe del año 2006, Microsoft consiguió por segundo año consecutivo la calificación de 100.[160] [161]

En abril del 2005, Microsoft recibió críticas por retirar el apoyo a Washington del proyecto de ley HB 1515, que ampliaba las leyes contra la discriminación a las personas por su orientación sexual. Microsoft fue acusado de ceder a las presiones locales del pastor evangélico Ken Hutcherson, que se reunió con un alto ejecutivo de la empresa amenazándole con boicotear los productos de la compañía. Microsoft reveló que estaba pagando al evangélico conservador Ralph Reed de la compañía Century Strategies 20000 dólares al mes.[162] Más de 2000 empleados firmaron una petición pidiendo a Microsoft el restablecimiento del apoyo al proyecto de ley.[163] Bajo estas duras críticas desde dentro y fuera de Microsoft, se decidió apoyar el proyecto de ley de nuevo en mayo del 2005.[164] [165] [166]

Microsoft contrata a trabajadores tanto extranjeros como nacionales, y se declara en contra de las limitaciones sobre los visados H1B; que permiten a las empresas de los Estados Unidos contratar trabajadores extranjeros. Bill Gates denuncia que las limitaciones al visado H1B hacen difícil contratar empleados para la compañía.[167] [168]

Logotipos y eslogans

En 1982, Microsoft estrenó logotipo, llamado “Bibblet“, que se caracterizaba por tener una letra “O” extravagante.[169]

En 1987, Microsoft adoptó su logotipo actual, llamado el “Pacman Logo” y diseñado por Scott Baker.[170] [171] [172] A este logotipo se le añadió, desde el años 1994 hasta el 2002, el eslogan “Where do you want to go today?” (¿Dónde quieres ir hoy?).[173] [174] Ya en el año 2008, se ha añadido el eslogan “Your potential, our passion” (“Tu potencial, nuestra pasión”), al logotipo de la compañía.[175]

Logotipo “Pacman

Críticas

Desde 1980, Microsoft ha sido objeto de controversia en la industria informática. Sus tácticas de negocios han sido objeto de crítica, a menudo descritas por la propia empresa con el lema de Adoptar, extender y extinguir. Microsoft inicialmente adopta un estándar o producto, para después producir versiones de sus productos incompatibles con el estándar, que termina extinguiéndose e impide a la competencia utilizar la nueva versión del producto.[176] Estas tácticas han dado lugar a que diversas empresas y gobiernos interpongan demandas contra la empresa, en general, fue demandada varias veces.[177] [178] [179] [180] [181] Microsoft ha sido llamada como una “mano de acero en guante de seda”, en referencia a las acusaciones a la empresa por el trabajo realizado por sus empleados ya que este puede ser perjudicial para la salud. Esta descripción se usó por primera vez en un artículo de la revista Seattle Times en el año 1989 y posteriormente ha sido empleada por empleados de Microsoft para describir a la compañía.[182] [183]

Los partidarios del software libre se muestran preocupados por la formación de la Trusted Computing Platform Alliance (TCPA), formada por un grupo de empresas entre las que destacan Microsoft e Intel que ha impulsado, alegando que de esta forma se producirá un aumento de la seguridad y privacidad en el ordenador de los usuarios, una estrategia denominada Trusted Computing. La TCPA ha sido vista por sus detractores como un medio para permitir a los desarrolladores de software para imponer algún tipo de restricción en su software.

Richard Stallman

Las grandes corporaciones de los medios de comunicación (incluyendo las compañías cinematográficas y de la industria discográfica) junto con compañías de computadoras tales como Microsoft e Intel, están planificando hacer que su computadora los obedezca a ellos en vez de a usted

Richard Stallman, fundador de la Free Software Foundation[184]

Los defensores del software libre también discrepan con Microsoft la promoción de la Gestión de derechos digitales (DRM) y el Coste total de propiedad (CTP). La Gestión de los derechos digitales es una tecnología que permite a los proveedores de contenido a imponer restricciones a los métodos y a la forma en que sus productos son usados. Los detractores del DRM sostienen que esta tecnología puede infringir el uso legítimo y de otros derechos, Dado que restringe actividades legales como la remezcla o la reproducción de material para su uso en presentaciones de diapositivas.[185] Microsoft ha lanzado una campaña, llamada “Get the facts” en la que muestra cientos de empresas conocidas que migraron de Linux a Windows Server y aumentaron su productividad.[186] Los defensores de Linux desarrollaron su propio estudio argumentando que, en contra de uno de los reclamos de Microsoft, Linux tiene menores costos administrativos que Windows Server.[187] Otro estudio realizado por el Yankee Group afirma que la actualización desde una versión de Windows Server a otra plataforma tiene un coste inferior al de cambiar de Linux a Windows Server.[188]

Críticas más recientes están relacionadas con la censura de Internet en la República China. Microsoft, junto a otras empresas como Google, Yahoo, Cisco, AOL y Skype entre otras, colaboraron con el Gobierno de China implementando un sistema de censura.[189] [190] Organizaciones en defensa de los derechos humanos como Human Rights Watch (HRW) y Reporteros sin fronteras han criticado a estas compañías y considerando como irónico que estas empresas cuya existencia depende de la libertad de información tomen actitudes censoras.[191]

En agosto de 1985, Microsoft e IBM colaboraron en el desarrollo de una familia de sistemas operativos diferentes llamados OS/2.[36] El 20 de noviembre de 1985, Microsoft lanzó la primera versión para minoristas de su sistema operativo Microsoft Windows. Originalmente, Windows no era más que una extensión gráfica para MS-DOS.[37]

El 13 de marzo de 1986, la compañía hizo pública una Oferta Pública de Venta, con un precio inicial de 21 dólares por acción. Al terminar el primer día, la acción ya tenía un valor efectivo de 28 dólares. En 1987, Microsoft lanzó su primera versión de OS/2 para OEMs.[38]

En 1989, Microsoft introdujo su principal suite ofimática, Microsoft Office, un paquete de aplicaciones ofimáticas separadas, como Microsoft Word y Microsoft Excel.[27] El 22 de mayo de 1990, salió al mercado Windows 3.0,[39] la nueva versión del sistema operativo, el cual disponía de nuevas funciones, una interfaz de usuario gráfica más racional y un mejorado modo protegido para el procesador Intel 386.[39]

Steve Ballmer, CEO de Microsoft.

En 6 meses las ventas superaron los 2 millones de unidades.[40] Esto suponía que Windows ya generaba mayores beneficios que OS/2, por lo que la compañía decidió mover recursos desde OS/2 a Windows.[41] En los siguientes años OS/2 decayó, y Windows fue rápidamente favorecido como plataforma para PCs.[42]

Durante la transición de MS-DOS hacia Windows, el éxito de Office permitió a la compañía tomar posición frente a las aplicaciones ofimáticas de la competencia, como WordPerfect y Lotus 1-2-3[43] Según la compañía Novell, propietaria durante un tiempo de WordPerfect, Microsoft usaba conocimiento no documentado del núcleo de MS-DOS y Windows para que Office funcionase mejor que los de las aplicaciones de la competencia. Mientras, Office se convertía en la suite ofimática dominante, con una cuota de mercado superior a la de sus competidores.[44]

En 1993, Microsoft publicó Windows NT 3.1,[40] un sistema operativo de negocios con la interfaz de Windows 3.1 pero con un núcleo totalmente diferente.[40] En 1995, Microsoft puso en venta Windows 95,[40] una nueva versión del sistema operativo insignia de la compañía con una interfaz de usuario completamente nueva, entre sus novedades se destacan el nuevo Menú Inicio, un explorador de archivos mejorado, compatibilidad del Hardware Plug-and-play y soporte mejorado para multimedia y juegos. La nueva versión de windows permitirá además nombres largos de archivos y la multitarea prioritaria de 32 bits, que permite usar a la vez varios programas. En los 4 primeros días, se vendieron 1 millón de copias de Microsoft Windows 95.[45] En este mismo año, salió al mercado Internet Explorer[46] que venía incluido junto al paquete Windows 95 Plus! (o Windows Plus!), una nueva versión de Windows 95.

Bill Gates en el IT-Forum, Copenhagen. Año 2004

Tras adquirir la licencia del navegador NCSA Mosaic perteneciente a Spyglass, modificó el navegador y lo transformó renombrándolo con el nombre de Internet Explorer[47]

En marzo de 1995 salió Microsoft Bob,[48] una extensión de Windows 3.1 destinada al mercado doméstico que pretendía hacer más amigable el uso de la computadora, cambiando el interfaz por otro basado en objetos cotidianos (cajones, mesas, cuadros) y personajes a modo de asistentes (un perro, una pelota roja, etc.). A pesar de ser un rotundo fracaso,[48] muchos de sus conceptos fueron trasladados a otros programas de la compañía como, por ejemplo, los asistentes de ayuda del Office o las búsquedas de Windows XP. Es remarcable decir que Microsoft Bob fue desarrollado por Melinda Gates, mujer de Bill Gates y también que éste fue su último proyecto en la compañía.

Desde 1995 hasta el 2006: Internet y los problemas legales

A mediados de los 90, Microsoft inició una nueva expansión hacia las redes y el World Wide Web. El 24 de agosto de 1995, lanzó su principal servicio online, MSN (Microsoft Service Network),[49] con la intención de competir de forma directa con AOL (America Online). MSN se convirtió en la marca general de Microsoft para los servicios online.[50] La compañía continuó en su expansión hacia otros mercados. Ya en 1996, trabajó junto a la NBC para crear un nueva emisora de televisión por cable que ofreciera noticias y estuviera disponible en cualquier momento. La MSNBC.[51] En noviembre del mismo año, Microsoft se introdujo en el mercado de los PDAs en Noviembre con Windows CE 1.0, una nueva versión hecha desde cero de su famoso sistema Windows, específicamente diseñado para sistemas con poca memoria y rendimiento, como pequeños ordenadores y equipos de mano. Más adelante, en 1997,[52] Internet Explorer 4.0 fue publicado para Mac OS y Windows, marcando el principio del fin de su competidor, Netscape Navigator.[53] En Octubre, el Departamento de Justicia de los Estados Unidos archivó una moción de la Corte Federal por la que indicaban que había violado un acuerdo firmado en 1994, y exigía que se detuviera la venta de Internet Explorer junto a Windows tal y como se le obligaba a los fabricantes.[54]

1998 fue un año importante para Microsoft, Bill Gates designó a Steve Ballmer como presidente, sin embargo, Gates siguió manteniéndose en la presidencia del Consejo de Dirección de la empresa.[55] Windows 98 salió a la venta, la nueva versión de Windows era una actualización de Windows 95 que incorporaba nuevas características centradas en Internet y que era compatible con los nuevos tipos de dispositivos.[56] Un año después de la aparición de Windows 98, Microsoft lanza el 5 de mayo de 1999 Windows 98 SE, este nuevo sistema no era una actualización de Windows 98, sino un producto nuevo. Esta nueva versión corregía errores de anteriores versiones dándole mayor estabilidad, ampliaba su compatibilidad con los periféricos y con Windows NT y permitía la posibilidad de compartir una conexión a Internet por medio de la red local. También cabe destacar la inclusión de Internet Explorer 5, nueva versión del navegador. Por orden judicial, Microsoft se vio obligado a vender en algunas regiones una versión de este sistema operativo que diera opción para desinstalar Internet Explorer. Esto no era permitido en la versión anterior de Windows.[57] [58]

En 1999, Microsoft pagó 5.000 millones de dólares a la compañía de telecomunicaciones AT&T Corp para utilizar su sistema operativo Windows CE en dispositivos diseñados para ofrecer a los consumidores servicios integrados de televisión por cable, teléfono y acceso rápido a Internet.[59]

Diferentes versiones de Windows al lo largo del tiempo.[60] [61]

El 17 de febrero del 2000, nace Windows 2000[62] , entre sus novedades, destaca el Active Directory, que permitía trabajar a las organizaciones a nivel global, con todas sus máquinas.,[63] [64] la incorporación del Administrador de Dispositivos, Windows Media Player y aumentaba la compatibilidad de los juegos bajo Windows NT. Sin embargo, este sistema estaba pensado para uso profesional y no tuvo un uso tan extendido en los hogares como en los negocios.[62]

El 3 de abril, la justicia se pronunció en el caso de los Estados Unidos frente a Microsoft acusando a la compañía de practicar un “monopolio abusivo” y forzándola a dividir sus productos en 2 unidades separadas.[55] Esta sentencia dio un vuelco ante la corte federal de apelación , y fue resuelta por el Departamento de Justicia en 2001.[65]

Windows ME (Windows Millenium Edition) se pone a disposición del público el día 14 de septiembre del mismo año.[66] Windows ME sería el sustituto de Windows 98, sus principales novedades era la inclusión de la opción Restaurar Sistema, que permite devolver la configuración del equipo a un estado previo así como mejoras en cuanto a Internet.[67] El sistema no tuvo el éxito esperado.[67]

Este mismo año, Bill Gates, con el fin de poder centrarse en el desarrollo de nuevos productos y tecnologías, renunció como Consejero Delegado de la compañía siendo sustituido por Steve Ballmer Ballmer.[68]

El 25 de octubre año 2001, Microsoft estrena Windows XP.[69] La primera versión de Windows que combina características tanto de su línea para ordenadores caseros como para los negocios. XP; abreviatura de “eXPerience”[70] introduce una nueva interfaz gráfica de usuario, el primer cambio de la interfaz desde 1995.[71] [70] Windows XP, sin embargo, recibió críticas por la cantidad de fallos de seguridad que fueron encontrados y presentaba una menor compatibilidad con los dispositivos y algunos programas.[72] [73] [74]

Más adelante, con el lanzamiento de Xbox el 8 de noviembre del mismo año,[75] Microsoft se introdujo en el mercado de las videoconsolas, un mercado dominado por Nintendo y Sony.[76]

La nueva solución empresarial de Microsoft se presentó el 24 de abril del 2003.[77] Dirigida a empresas, Windows Server 2003 era un 139% más rápido que su antecesor, Windows 2000 Server y un 200% frente a Windows NT 4.0.[77] [78]

La compañía tropezó con más problemas legales en marzo del 2004 cuando se emprendieron acciones legales contra Microsoft por parte de la Unión Europea por abuso dominante del mercado, tras ser juzgada, Microsoft se vio en la obligación de comercializar nuevas versiones de su sistema Windows XP. Estas nuevas versiones no incluían a Windows Media Player y se conocieron con el nombre de Windows XP Home Edition N y Windows XP Professional N.[79] [80]

2006 hasta 2008: Windows Vista y transición

En el año 2006, Bill Gates anunció el inicio de un período de transición, su puesto de Jefe de Arquitectura de Software podría ser ocupado por Ray Ozzie,[81] aunque permanecería como presidente de la compañía, al frente de la Junta Directiva y como consejero en los proyectos claves.

Tras numerosos retrasos,[82] [83] [84] el 29 de enero del 2007 la compañía lanza oficialmente Windows Vista. Se sacaron al mercado 6 ediciones diferentes:[85]

Diferentes versiones de Windows Vista

  • Home Basic: Pensada para hogares y usuarios con necesidades básicas.[85]
  • Home Premium:Pensada para hogares, trae una nueva interfaz, Windows Aero, con efectos visuales mejorados y un escritorio 3D con la utilidad Windows Flip 3D, nuevas tecnologías de diagnostico y mejora del rendimiento del sistema.[86]
  • Bussiness: Pensado para pequeñas empresas.[87]
  • Ultimate: Combina las características de la edición Home Premium y la edición Bussiness.[88]
  • Enterprise: Ideada para grandes empresas que operen en redes globales, incluye una mayor compatibilidad con aplicaciones y diferentes idiomas, así como Windows BitLocker para la protección de datos.[89]
  • Starter: Pensado para usuarios principiante, es la edición menos completa de todas y la más simple. Se incluye en equipos de bajo costo y no se comercializa en la Unión Europea, Estados Unidos, Japón y Australia.[90]

A estas ediciones hay que sumarles las etiquetadas como N, que solo se distribuyen en Europa y que no incluyen el reproductor de Windows Media.[91] en general, la seguridad ha mejorado respecto a Windows XP, con herramientas como la protección de seguridad dinámica y Windows Defender. Además, Vista incluye un control parental de acceso a internet.[92] En cuanto a los fallos de seguridad, en los primeros 6 meses se han detectado menos fallos en Vista que en otros sistemas como XP o Mac OS.[93] [94]

Junto con Windows Vista, salió a la venta la nueva versión de la suite ofimática de la compañía, Microsoft Office 2007. Entre sus novedades está la interfaz Ribbon, que sustituye las barras de herramientas y menús por pestañas.[95]

El 1 de febrero del 2008, Microsoft anunció su intención de comprar a uno de sus mayores competidores, Yahoo, por 44.600 millones de dólares en efectivo o 31 dólares por acción.[96] Esta oferta, llega en momentos difíciles para Yahoo, que recientemente anunció el despido del 7% de su plantilla para intentar reestructurar la empresa.[96] Desde Yahoo, se ha indicado el estudio de la oferta por parte de la Dirección de la empresa.[97] Poco después,Yahoo decidió no aceptar la propuesta por considerar que la oferta de Microsoft “subvalora enormemente a Yahoo”.[98]

Windows 7 (anteriormente conocido con nombre código Blackcomb, y luego Vienna) será la próxima versión de Microsoft Windows, un sistema operativo producido por Microsoft Corporation para uso en PCs, incluyendo equipos de escritorio en hogares y oficinas, Notebooks, tablet PCs, netbooks y equipos media center.

A diferencia de su predecesor, Windows 7 está previsto como una actualización incremental del núcleo NT 6.0, esto con la meta de mantener cierto grado de compatibilidad con aplicaciones y hardware en los que Windows Vista ya es compatible. Las metas de desarrollo para Windows 7 son el mejorar su interfaz para hacerla más amigable al usuario, con nuevas caracteristicas que permitirán hacer tareas de una manera más fácil y rápida, al mismo tiempo en que se realizan esfuerzos para lograr un sistema más ligero, estable y rápido. Diversas presentaciones dadas por la compañía en el 2008 se han enfocado en demostrar capacidades táctiles multi-touch, una interfaz rediseñada junto con una nueva barra de tareas y un sistema de redes domésticas denominado HomeGroup, además de mejoras en el rendimiento.

Windows 7 estará más enfocado en el rendimiento del sistema operativo. En el blog oficial Microsoft publicó seis de los puntos más relevantes a trabajar: empleo de memoria, utilización de CPU, operaciones de entrada y salida a disco, operaciones de arranque, cierre y reposo, rendimiento del sistema base y empleo de disco por parte del sistema.

En una entrevista con Newsweek, Bill Gates dijo que esta nueva versión de Windows sería más centrada en el usuario; además comentó que trabajan con esmero para mejorar el rendimiento.

También uno de sus principales objetivos es mejorar el arranque y tienen como propósito que inicie en menos de 15 segundos. Para esto se propusieron reducir la cantidad de programas y servicios que se inician al cargar Windows.

Otra cosa muy presente en el desarrollo de este sistema (gracias a las quejas de los usuarios) es minimizar la intrusión, mejorar el rendimiento y habilitar la modificación del Control de Cuentas de Usuario, ya que éste fue un total fracaso en Windows Vista debido a sus constantes alertas innecesarias en simples acciones diarias.

En una carta escrita por el vicepresidente de Microsoft Corporation, Bill Veghte, se habla sobre la visión que tienen para Windows 7:

Hemos aprendido mucho a través de los comentarios que ustedes han compartido con nosotros acerca de Windows Vista y esa retroalimentación juega un papel importante en nuestro trabajo para Windows 7. Nos han dicho que desean una programación más estructurada y predecible para la liberación de Windows… …nuestro enfoque hacia Windows 7 es basarnos en la misma arquitectura base de Windows Vista Service Pack 1, de manera que las inversiones que ustedes y nuestros socios han realizado en Windows Vista continúen redituando con Windows 7. Nuestro objetivo es asegurar que el proceso de migración de Windows Vista a Windows 7 sea transparente.

En el área de notificaciones por defecto solo se mostrarán las tareas del sistema y estas serán mas interactivas y permitirán realizar acciones sencillas sin tener que abrir una ventana

Multimedia  [editar]Windows 7 vendrá con nuevas versiones de Windows Media Center y Windows Media Player capaces de reproducir formatos MP4, MOV, 3GP, AVCHD, ADTS y WTV, e incluye codecs como H.264, MPEG4-SP, ASP/DivX/Xvid, MJPEG, DV, AAC, LPCM. Además, el Media Player también trae una versión lite para reproducir vídeos sin tener que cargar la biblioteca y otras cosas.
Interfaz  [editar]Se ha establecido públicamente que el equipo de desarrollo de la interfaz Ribbon de Microsoft Office 2007 formará parte activa en el rediseño del Explorador de Windows y posiblemente otros elementos de la Interfaz de Usuario. Esta interfaz ya está incluida en Paint y Wordpad (En Betas de Windows 7)
Multi-Touch  [editar]El 27 de mayo de 2008, Steve Ballmer y Bill Gates en la conferencia "D6: All Things Digital" dieron a conocer la nueva interfaz multi-touch llamándola "sólo una pequeña parte" de lo que vendrá con Windows 7. Más tarde Julie Larson Green vicepresidente corporativa mostró posibles usos, como hacer dibujos en Paint, agrandar o reducir fotos y recorrer un mapa en Internet, arrastrar y abrir elementos, simplemente con toques en la pantalla.

“Hoy en día la mayoría de las computadoras son manejadas gracias a la interacción mouse-teclado”, dijo Bill Gates, presidente de Microsoft. “En los próximos años, el papel de la voz, la visión, la tinta -todos ellos- será enorme”, afirmó.

Otros productos

Junto a Windows y Office, Microsoft cuenta con una amplia gama de productos entre los que destacan:

  • Biztalk Server: Automatización y gestión de procesos empresariales.[99]
  • Exchange: Servidor de correo electrónico que incluye además un servicio de mensajería y un calendario. Una de sus características más importantes es su integración con Microsoft Office.[100]
  • Internet Security and Acceleration Server (ISA): Servidor firewall corporativo, multicapa y caché.[101]
  • Operations Manager: Monitorización de sistemas Windows Server y aplicaciones .NET.[102]
  • Sharepoint Portal Server: Integrada en Office, proporciona herramientas para la colaboración, administración de contenido e implementación de procesos empresariales.[103]
  • SQL Server: Plataforma de base de datos que ofrece herramientas de administración de datos empresariales.[104]
  • Systems Management Server: Gestión de sistemas (inventarios, control remoto, distribución de software…).[105]
  • Microsoft Project: Administrador de proyectos empresariales.[106]
  • Microsoft Works: Proporciona herramientas de productividad casera, incluye un editor de texto, una hoja de cálculo, un gestor de bases de datos y un planificador de proyectos.[107]
  • Windows Mobile: Sistema operativo para teléfonos inteligentes y PDAs.[108]
  • Microsoft Encarta Enciclopedia electrónica, que se distribuye tanto desde una web como desde un programa.[109] [110]
  • Microsoft Picture It!: Programa de retoque fotográfico.[111]
  • Windows Live: Cliente de mensajería instantánea, anteriormente llamado Windows MSN.[112]
  • Microsoft Visual Studio, que incluye Visual Basic, Visual C++, Visual C#, Visual J#… Proporciona herramientas para desarrolladores de aplicaciones informáticas.[113]
  • Microsoft Internet Explorer: Navegador Web, cuenta con versiones para los Sistemas Operativos Windows, Apple Macintosh y Solaris Unix.[114]
  • Microsoft Xbox (y su sucesor Xbox 360): Videoconsola de sexta y séptima generación respectivamente.
  • Microsoft Surface: Permite el manejo de contenidos digitales con los movimientos de las manos.
  • Zune: Reproductor de música digital.

Posted in intereses, Tecnologias de informacion | Etiquetado: | Leave a Comment »

NOTICIAS(SCRIBD)

Posted by yolvi en 13/06/2009

Posted in General | Etiquetado: | Leave a Comment »

Microsoft Visual Basic

Posted by yolvi en 13/06/2009

vs2008_headerVisual Basic es un lenguaje de programación desarrollado por Alan Cooper para Microsoft. El lenguaje de programación es un dialecto de BASIC, con importantes añadidos. Su primera versión fue presentada en 1991 con la intención de simplificar la programación utilizando un ambiente de desarrollo completamente gráfico que facilitara la creación de interfaces gráficas y en cierta medida también la programación misma. Desde el 2001 Microsoft ha propuesto abandonar el desarrollo basado en la API Win32 y pasar a trabajar sobre un framework o marco común de librerías independiente de la version del sistema operativo, .NET Framework, a través de Visual Basic .NET (y otros lenguajes como C Sharp (C#) de fácil transición de código entre ellos) que presenta serias incompatibilidades con el código Visual Basic existente.

Visual Basic constituye un IDE (entorno de desarrollo integrado o en inglés Integrated Development Enviroment) que ha sido empaquetado como un programa de aplicación, es decir, consiste en un editor de código (programa donde se escribe el código fuente), un depurador (programa que corrige errores en el código fuente para que pueda ser bien compilado), un compilador (programa que traduce el código fuente a lenguaje de máquina), y un constructor de interfaz gráfica o GUI (es una forma de programar en la que no es necesario escribir el código para la parte gráfica del programa, sino que se puede hacer de forma visual).

Compilador:

El compilador de Microsoft genera ejecutables que requieren una DLL para que funcionen, en algunos casos llamada MSVBVMxy.DLL (acrónimo de “MicroSoft Visual Basic Virtual Machine x.y”, siendo x.y la versión) y en otros VBRUNXXX.DLL (“Visual Basic Runtime X.XX”), que provee todas las funciones implementadas en el lenguaje. Además existen un gran número de bibliotecas (DLL) que facilitan el acceso a muchas funciones del sistema operativo y la integración con otras aplicaciones. Sin embargo esto sólo es una limitación en sistemas obsoletos, ya que las bibliotecas necesarias para ejecutar programas en Visual Basic vienen de serie en todas las versiones de Windows desde Windows 2000.
La ventana de propiedades contiene diferentes formas para utilizar el programa, cuales son: (Pointer) Apuntador o puntero, (Label) Etiqueta, (Frame) Marco, (CheckBox) Casilla de verificación, (ComboBox) Lista desplegable, (HScrollBar) Barra de desplazamiento horizontal, (Timer) Temporizador, (DirListBox) Lista de directorios, (Shape) Figura, (Image) Imagen, “OLE”, (PictureBox) Caja de Imagen, (TextBox) Caja de texto, (CommandButton) Boton de pulsación, (OptionButton) Boton de opción, (ListBox) Lista, (VScrollBar) Barra de desplazamiento vertical, (DriveListBox) Lista de unidades de disco, (FileListBox) Lista de archivos, (Line) Linea y por último (Data) Datos.

Versiones :

Las versiones de Visual Basic para Windows son muy conocidas, pero existe una versión de Microsoft Visual Basic 1.0 para MS-DOS (ediciones Profesional y Estándar) menos difundida y que data de 1992. Era un entorno que, aunque en modo texto, incluía un diseñador de formularios en el que se podían arrastrar y soltar distintos controles.

La última versión sólo para 16 bits, la 3.0, incluía ya una detallada biblioteca de componentes para toda clase de usos. Durante la transición de Windows 3.11 a Windows 95, apareció la versión 4.0, que podía generar programas de 16 y 32 bits a partir de un mismo código fuente, a costa de un gran aumento en el tamaño de los archivos “runtime” necesarios. Además, se sustituyen los controles VBX por los nuevos OCX. Con la versión 5.0, se implementó por primera vez la posibilidad de compilar a código nativo, obteniendo una mejora de rendimiento considerable. Tanto esta como la posterior 6.0 soportaban características propias de los lenguajes orientados a objetos, aunque careciendo de algunos ítems importantes como la herencia, el polimorfismo y la sobrecarga. La versión 6.0 continua utilizándose masivamente.

Las versiones actuales de Visual Basic se basan en la plataforma .NET, que se desligan de las anteriores versiones.

Ventajas :

  • Es un lenguaje RAD.
  • Posee una curva de aprendizaje muy rápida.
  • Integra el diseño e implementación de formularios de Windows.
  • Permite usar con suma facilidad la plataforma de los sistemas Windows.
  • El código en Visual Basic es fácilmente migrable a otros lenguajes.

Inconvenientes:

  • Sin soporte de Microsoft desde el 4 de abril de 2008 (Pero el MSDN es muy completo).
  • No es multiplataforma (Sin embargo se pueden usar emuladores e interpretes para correrlos en otras plataformas).
  • Por defecto permite la programación sin declaración de variables. (que puede ser sencillamente corregida escribiendo la frase Option Explicit en el encabezado de cada formulario, en cuyo caso será menester declarar todas las variables a utilizar, lo que a la postre genera código más puro).
  • No permite programación a bajo nivel ni incrustrar secciones de código en ASM.
  • Sólo permite el uso de funciones de librerías dinámicas (DLL) stdcall.
  • Algunas funciones están indocumentadas (Sin embargo esto ocurre en muchos lenguajes).
  • Es un lenguaje basado en objetos y no orientado a objetos.
  • No maneja muy bien los apuntadores de memoria.
  • No soporta tratamiento de procesos como parte del lenguaje.
  • No incluye operadores de desplazamiento de bits como parte del lenguaje.
  • No permite el manejo de memoria dinámica, punteros, etc. como parte del lenguaje.
  • No avisa de ciertos errores o advertencias (se puede configurar el compilador para generar ejecutables sin los controladores de desbordamiento de enteros o las comprobaciones de límites en matrices entre otros, dejando así más de la mano del programador la tarea de controlar dichos errores)
  • No tiene instrucciones de preprocesamiento.
  • El tratamiento de mensajes de Windows es básico e indirecto.
  • La gran gama de controles incorporados son, sin embargo en algunos casos, muy generales, lo que lleva a tener que reprogramar nuevos controles para una necesidad concreta de la aplicación. Esto cambia radicalmente en Visual Basic .NET donde es posible reprogramar y mejorar o reutilizar los controles existentes.
  • Los controles personalizados no mejoran la potencia de la API de Windows, y en determinados casos acudir a ésta será el único modo de conseguir el control personalizado deseado.

Entornos de desarrollo:

Existe un único entorno de desarrollo para Visual Basic, desarrollado por Microsoft:

  • Microsoft Visual Basic x.0 para versiones desde la 1.0 hasta la 8.0, (con las diferencias entre las versiones desde la 1.0 (MS-DOS/Windows 3.1) hasta la 3.0 (16 bits, Windows 3.1) y las de la 4.0 (16/32 bits, Windows 3.1/95/NT) hasta la 6.0 (32 bits, Windows 9x/Me/NT/2000/XP/Vista)

Gambas es un proyecto libre para implementar programación visual con Basic en GNU/Linux. Está derivado principalmente de Visual Basic, adaptandose a partir de su lenguaje y su entorno de desarrollo, para implementar su propia variante, parcialmente compatible con Visual Basic, aportando y enriqueciendo con las oportunidades que brinda GNU/Linux.

Posted in programas | Etiquetado: | Leave a Comment »

Unidad central de procesamiento(CPU)

Posted by yolvi en 13/06/2009

La unidad central de procesamiento, o CPU (por el acrónimo en inglés Central Processing Unit), o, simplemente, el procesador, es el componente en una computadora digital que interpreta las instrucciones y procesa los datos contenidos en los programas de la computadora. Las CPU proporcionan la característica fundamental de la computadora digital (la programabilidad) y son uno de los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con el almacenamiento primario y los dispositivos de entrada/salida. Se conoce como microprocesador el CPU que es manufacturado con circuitos integrados. Desde mediados de los años 1970, los microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y hoy en día, el término “CPU” es aplicado usualmente a todos los microprocesadores.

La expresión “unidad central de proceso” es, en términos generales, una descripción de una cierta clase de máquinas de lógica que pueden ejecutar complejos programas de computadora. Esta amplia definición puede fácilmente ser aplicada a muchos de los primeros ordenadores que existieron mucho antes que el término “CPU” estuviera en amplio uso. Sin embargo, el término en sí mismo y su acrónimo han estado en uso en la industria de la informática por lo menos desde el principio de los años 1960 . La forma, el diseño y la implementación de las CPU ha cambiado drásticamente desde los primeros ejemplos, pero su operación fundamental ha permanecido bastante similar.

Las primeras CPU fueron diseñadas a la medida como parte de una computadora más grande, generalmente una computadora única en su especie. Sin embargo, este costoso método de diseñar los CPU a la medida, para una aplicación particular, ha desaparecido en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y estandarizados adaptados para uno o muchos propósitos. Esta tendencia de estandarización comenzó generalmente en la era de los transistores discretos, computadoras centrales, y microcomputadoras, y fue acelerada rápidamente con la popularización del circuito integrado (IC), éste ha permitido que sean diseñados y fabricados CPU más complejos en espacios pequeños (en la orden de milímetros). Tanto la miniaturización como la estandarización de los CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones limitadas de máquinas de computación dedicadas. Los microprocesadores modernos aparecen en todo, desde automóviles, televisores, neveras, calculadoras, aviones, hasta teléfonos móviles o celulares, juguetes, entre otros.

250px-80486dx2-large

Todos los CPU tratan con estados discretos, y por lo tanto requieren una cierta clase de elementos de conmutación para diferenciar y cambiar estos estados. Antes de la aceptación comercial del transistor, los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran usados comúnmente como elementos de conmutación. Aunque éstos tenían distintas ventajas de velocidad sobre los anteriores diseños puramente mecánicos, no eran fiables por varias razones. Por ejemplo, hacer circuitos de lógica secuencial de corriente directa requería hardware adicional para hacer frente al problema del rebote de contacto. Por otro lado, mientras que los tubos de vacío no sufren del rebote de contacto, éstos deben calentarse antes de llegar a estar completamente operacionales y eventualmente fallan y dejan de funcionar por completo.[1] Generalmente, cuando un tubo ha fallado, el CPU tendría que ser diagnosticado para localizar el componente que falla para que pueda ser reemplazado. Por lo tanto, los primeros computadores electrónicos, (basados en tubos de vacío), generalmente eran más rápidas pero menos confiables que las computadoras electromecánicas, (basadas en relés). Las computadoras de tubo, como el EDVAC, tendieron en tener un promedio de ocho horas entre fallas, mientras que las computadoras de relés, (anteriores y más lentas), como el Harvard Mark I, fallaban muy raramente . Al final, los CPU basados en tubo llegaron a ser dominantes porque las significativas ventajas de velocidad producidas generalmente pesaban más que los problemas de confiabilidad. La mayor parte de estos tempranos CPU síncronos corrían en frecuencias de reloj bajas comparadas con los modernos diseños microelectrónicos, (ver más abajo para una exposición sobre la frecuencia de reloj). Eran muy comunes en este tiempo las frecuencias de la señal del reloj con un rango desde 100 kHz hasta 4 MHz, limitado en gran parte por la velocidad de los dispositivos de conmutación con los que fueron construidos.

CPU de transistores y de circuitos integrados discretos

CPU, memoria de núcleo, e interfaz de bus externo de un MSI PDP-8/I.

La complejidad del diseño de los CPU se incrementó a medida que varias tecnologías facilitaron la construcción de dispositivos electrónicos más pequeños y confiables. La primera de esas mejoras vino con el advenimiento del transistor. Los CPU transistorizados durante los años 1950 y los años 1960 no tuvieron que ser construidos con elementos de conmutación abultados, no fiables, y frágiles, como los tubos de vacío y los relés eléctricos. Con esta mejora, fueron construidos CPUs más complejos y más confiables sobre una o varias tarjetas de circuito impreso que contenían componentes discretos (individuales).

Durante este período, ganó popularidad un método de fabricar muchos transistores en un espacio compacto. El circuito integrado (IC) permitió que una gran cantidad de transistores fueran fabricados en una simple oblea basada en semiconductor o “chip”. Al principio, solamente circuitos digitales muy básicos, no especializados, como las puertas NOR fueron miniaturizados en ICs. Los CPU basadas en estos IC de “bloques de construcción” generalmente son referidos como dispositivos de pequeña escala de integración “small-scale integration” (SSI). Los circuitos integrados SSI, como los usados en el computador guía del Apollo (Apollo Guidance Computer), usualmente contenían transistores que se contaban en números de múltiplos de diez. Construir un CPU completo usando ICs SSI requería miles de chips individuales, pero todavía consumía mucho menos espacio y energía que diseños anteriores de transistores discretos. A medida que la tecnología microelectrónica avanzó, en los IC fue colocado un número creciente de transistores, disminuyendo así la cantidad de ICs individuales necesarios para un CPU completo. Los circuitos integrados MSI y el LSI (de mediana y gran escala de integración) aumentaron el número de transistores a cientos, y luego a miles.

En 1964, IBM introdujo su arquitectura de computador System/360, que fue usada en una serie de computadores que podían correr los mismos programas con velocidades y desempeños diferentes. Esto fue significativo en un tiempo en que la mayoría de las computadoras electrónicas eran incompatibles una con la otra, incluso las hechas por el mismo fabricante. Para facilitar esta mejora, IBM utilizó el concepto de microprograma, a menudo llamado “microcódigo”, que todavía ve un uso extenso en los CPU modernos . La arquitectura System/360 era tan popular que dominó el mercado del mainframe por las siguientes décadas y dejó una herencia que todavía es continuada por computadores modernos similares como el IBM zSeries. En el mismo año de 1964, Digital Equipment Corporation (DEC) introdujo otro computador influyente dirigido a los mercados científicos y de investigación, el PDP-8. DEC introduciría más adelante la extremadamente popular línea del PDP-11, que originalmente fue construido con ICs SSI pero eventualmente fue implementado con componentes LSI cuando llegaron a ser prácticos. En fuerte contraste con sus precursores hechos con tecnología SSI y MSI, la primera implementación LSI del PDP-11 contuvo un CPU integrado por solamente cuatro circuitos integrados LSI .

Los computadores basados en transistores tenían varias ventajas distintas sobre sus predecesores. Aparte de facilitar una creciente confiabilidad y un más bajo consumo de energía, los transistores también permitían al CPU operar a velocidades mucho más altas debido al corto tiempo de conmutación de un transistor en comparación a un tubo o relé. Gracias tanto a la creciente confiabilidad como a la dramáticamente incrementada velocidad de los elementos de conmutación que por este tiempo eran casi exclusivamente transistores, fueron obtenidas frecuencias de reloj del CPU de decenas de megahertz. Además, mientras que los CPU de transistores discretos y circuitos integrados estaban en fuerte uso, comenzaron a aparecer los nuevos diseños de alto rendimiento como procesadores vectoriales SIMD (Single Instruction Multiple Data) (Simple Instrucción Múltiples Datos). Estos tempranos diseños experimentales dieron lugar más adelante a la era de los supercomputadoras especializados, como los hechos por Cray Inc.

Microprocesadores:

Microprocesador Intel 80486DX2 en un paquete PGA de cerámica

Desde la introducción del primer microprocesador, el Intel 4004, en 1970, y del primer microprocesador ampliamente usado, el Intel 8080, en 1974. Esta clase de CPUs ha desplazado casi totalmente el resto de los métodos de implementación de la Unidad Central de Proceso. Los fabricantes de mainframes y minicomputadores de ese tiempo lanzaron programas de desarrollo de ICs propietarios para actualizar sus más viejas arquitecturas de computador, y eventualmente produjeron microprocesadores con conjuntos de instrucciones que eran compatibles hacia atrás con sus más viejos hardwares y softwares. Combinado con el advenimiento y el eventual vasto éxito del ahora ubicuo computadora personal, el término “CPU” es aplicado ahora casi exclusivamente a los microprocesadores.

Las generaciones previas de CPUs fueron implementadas como componentes discretos y numerosos circuitos integrados de pequeña escala de integración en una o más tarjetas de circuitos. Por otro lado, los microprocesadores son CPUs fabricados con un número muy pequeño de ICs; usualmente solo uno. El tamaño más pequeño del CPU, como resultado de estar implementado en una simple pastilla, significa tiempos de conmutación más rápidos debido a factores físicos como el decrecimiento de la capacitancia parásita de las puertas. Esto ha permitido que los microprocesadores síncronos tengan tiempos de reloj con un rango de decenas de megahertz a varios gigahertz. Adicionalmente, como ha aumentado la capacidad de construir transistores excesivamente pequeños en un IC, la complejidad y el número de transistores en un simple CPU también se ha incrementado dramáticamente. Esta tendencia ampliamente observada es descrita por la ley de Moore, que ha demostrado hasta la fecha, ser una predicción bastante exacta del crecimiento de la complejidad de los CPU y otros ICs.

Mientras que, en los pasados sesenta años han cambiado drásticamente, la complejidad, el tamaño, la construcción, y la forma general del CPU, es notable que el diseño y el funcionamiento básico no ha cambiado demasiado. Casi todos los CPU comunes de hoy se pueden describir con precisión como máquinas de programa almacenado de von Neumann.

A medida que la a mencionada ley del Moore continúa manteniéndose verdadera, se han presentado preocupaciones sobre los límites de la tecnología de transistor del circuito integrado. La miniaturización extrema de puertas electrónicas está causando los efectos de fenómenos que se vuelven mucho más significativos, como la electromigración, y el subumbral de pérdida. Estas más nuevas preocupaciones están entre los muchos factores que hacen a investigadores estudiar nuevos métodos de computación como la computadora cuántica, así como ampliar el uso de paralelismo, y otros métodos que extienden la utilidad del modelo clásico de von Neumann.

Operación del CPU:

La operación fundamental de la mayoría de los CPU, es ejecutar una secuencia de instrucciones almacenadas llamadas “programa”. El programa es representado por una serie de números que se mantentienen en una cierta clase de memoria de computador. Hay cuatro pasos que casi todos los CPU de arquitectura de von Neumann usan en su operación: fetch, decode, execute, y writeback, (leer, decodificar, ejecutar, y escribir).

Diagrama mostrando como es decodificada una instrucción del MIPS32. (MIPS Technologies 2005)

El primer paso, leer (fetch), implica el recuperar una instrucción, (que es representada por un número o una secuencia de números), de la memoria de programa. La localización en la memoria del programa es determinada por un contador de programa (PC), que almacena un número que identifica la posición actual en el programa. En otras palabras, el contador de programa indica al CPU, el lugar de la instrucción en el programa actual. Después de que se lee una instrucción, el PC es incrementado por la longitud de la palabra de instrucción en términos de unidades de memoria.[2] Frecuentemente la instrucción a ser leída debe ser recuperada de memoria relativamente lenta, haciendo detener al CPU mientras espera que la instrucción sea retornada. Este problema es tratado en procesadores modernos en gran parte por los cachés y las arquitecturas pipeline (ver abajo).

La instrucción que el CPU lee desde la memoria es usada para determinar qué deberá hacer el CPU. En el paso de decodificación, la instrucción es dividida en partes que tienen significado para otras porciones del CPU. La manera en que el valor de la instrucción numérica es interpretado está definida por la arquitectura del conjunto de instrucciones (el ISA) del CPU.[3] A menudo, un grupo de números en la instrucción, llamado opcode, indica qué operación realizar. Las partes restantes del número usualmente proporcionan información requerida para esa instrucción, como por ejemplo, operandos para una operación de adición. Tales operandos se pueden dar como un valor constante (llamado valor inmediato), o como un lugar para localizar un valor, que según lo determinado por algún modo de dirección, puede ser un registro o una dirección de memoria. En diseños más viejos las porciones del CPU responsables de decodificar la instrucción eran dispositivos de hardware fijos. Sin embargo, en CPUs e ISAs más abstractos y complicados, es frecuentemente usado un microprograma para ayudar a traducir instrucciones en varias señales de configuración para el CPU. Este microprograma es a veces reescribible de tal manera que puede ser modificado para cambiar la manera en que el CPU decodifica instrucciones incluso después de que haya sido fabricado.

Diagrama de bloques de un CPU simple

Después de los pasos de lectura y decodificación, es llevado a cabo el paso de la ejecución de la instrucción. Durante este paso, varias porciones del CPU son conectadas de tal manera que ellas pueden realizar la operación deseada. Si, por ejemplo, una operación de adición fue solicitada, una unidad aritmético lógica (ALU) será conectada a un conjunto de entradas y un conjunto de salidas. Las entradas proporcionan los números a ser sumados, y las salidas contendrán la suma final. El ALU contiene la circuitería para realizar operaciones simples de aritmética y lógica en las entradas, como adición y operaciones de bits (bitwise). Si la operación de adición produce un resultado demasiado grande para poder ser manejado por el CPU, también puede ser ajustada una bandera (flag) de desbordamiento aritmético localizada en un registro de banderas (ver abajo la sección sobre rango de números enteros).

El paso final, la escritura (writeback), simplemente “escribe” los resultados del paso de ejecución a una cierta forma de memoria. Muy a menudo, los resultados son escritos a algún registro interno del CPU para acceso rápido por subsecuentes instrucciones. En otros casos los resultados pueden ser escritos a una memoria principal más lenta pero más barata y más grande. Algunos tipos de instrucciones manipulan el contador de programa en lugar de directamente producir datos de resultado. Éstas son llamadas generalmente “saltos” (jumps) y facilitan comportamientos como bucles (loops), la ejecución condicional de programas (con el uso de saltos condicionales), y funciones en programas.[4] Muchas instrucciones también cambiarán el estado de dígitos en un registro de “banderas”. Estas banderas pueden ser usadas para influenciar cómo se comporta un programa, puesto que a menudo indican el resultado de varias operaciones. Por ejemplo, un tipo de instrucción de “comparación” considera dos valores y fija un número, en el registro de banderas, de acuerdo a cual es el mayor. Entonces, esta bandera puede ser usada por una posterior instrucción de salto para determinar el flujo de programa.

Después de la ejecución de la instrucción y la escritura de los datos resultantes, el proceso entero se repite con el siguiente ciclo de instrucción, normalmente leyendo la siguiente instrucción en secuencia debido al valor incrementado en el contador de programa. Si la instrucción completada era un salto, el contador de programa será modificado para contener la dirección de la instrucción a la cual se saltó, y la ejecución del programa continúa normalmente. En CPUs más complejos que el descrito aquí, múltiples instrucciones pueden ser leídas, decodificadas, y ejecutadas simultáneamente. Esta sección describe lo que es referido generalmente como el “entubado RISC clásico” (Classic RISC pipeline), que de hecho es bastante común entre los CPU simples usados en muchos dispositivos electrónicos, a menudo llamados microcontroladores.[5]

Diseño e implementación:

Rango de enteros:

La manera en que un CPU representa los números es una opción de diseño que afecta las más básicas formas en que el dispositivo funciona. Algunas de las primeras calculadoras digitales usaron, para representar números internamente, un modelo eléctrico del sistema de numeración decimal común (base diez). Algunas otras computadoras han usado sistemas de numeración más exóticos como el ternario (base tres). Casi todas los CPU modernos representan los números en forma binaria, en donde cada dígito es representado por una cierta cantidad física de dos valores, como un voltaje “alto” o “bajo”.[6]

Microprocesador MOS 6502 en un dual in-line package (encapasulado en doble línea), un diseño extremadamente popular de 8 bits.

Con la representación numérica están relacionados el tamaño y la precisión de los números que un CPU puede representar. En el caso de un CPU binario, un bit se refiere a una posición significativa en los números con que trabaja un CPU. El número de bits (o de posiciones numéricas, o dígitos) que un CPU usa para representar los números, a menudo se llama “tamaño de la palabra”, “ancho de bits”, “ancho de ruta de datos”, o “precisión del número entero” cuando se ocupa estrictamente de números enteros (en oposición a números de coma flotante). Este número difiere entre las arquitecturas, y a menudo dentro de diferentes partes del mismo CPU. Por ejemplo, un CPU de 8 bits maneja un rango de números que pueden ser representados por ocho dígitos binarios, cada dígito teniendo dos valores posibles, y en combinación los 8 bits teniendo 28 ó 256 números discretos. En efecto, el tamaño del número entero fija un límite de hardware en el rango de números enteros que el software corre y que el CPU puede usar directamente.[7]

El rango del número entero también puede afectar el número de posiciones en memoria que el CPU puede direccionar (localizar). Por ejemplo, si un CPU binario utiliza 32 bits para representar una dirección de memoria, y cada dirección de memoria representa a un octeto (8 bits), la cantidad máxima de memoria que el CPU puede direccionar es 232 octetos, o 4 GB. Ésta es una vista muy simple del espacio de dirección del CPU, y muchos diseños modernos usan métodos de dirección mucho más complejos como paginación para localizar más memoria que su rango entero permitiría con un espacio de dirección plano.

Niveles más altos del rango de números enteros requieren más estructuras para manejar los dígitos adicionales, y por lo tanto, más complejidad, tamaño, uso de energía, y generalmente costo. Por ello, no es del todo infrecuente, ver microcontroladores de 4 y 8 bits usados en aplicaciones modernas, aun cuando están disponibles CPU con un rango mucho más alto (de 16, 32, 64, e incluso 128 bits). Los microcontroladores más simples son generalmente más baratos, usan menos energía, y por lo tanto disipan menos calor. Todo esto pueden ser consideraciones de diseño importantes para los dispositivos electrónicos. Sin embargo, en aplicaciones del extremo alto, los beneficios producidos por el rango adicional, (más a menudo el espacio de dirección adicional), son más significativos y con frecuencia afectan las opciones del diseño. Para ganar algunas de las ventajas proporcionadas por las longitudes de bits tanto más bajas, como más altas, muchos CPUs están diseñados con anchos de bit diferentes para diferentes porciones del dispositivo. Por ejemplo, el IBM Sistem/370 usó un CPU que fue sobre todo de 32 bits, pero usó precisión de 128 bits dentro de sus unidades de coma flotante para facilitar mayor exactitud y rango de números de coma flotante . Muchos diseños posteriores de CPU usan una mezcla de ancho de bits similar, especialmente cuando el procesador está diseñado para usos de propósito general donde se requiere un razonable equilibrio entre la capacidad de números enteros y de coma flotante.

Frecuencia de reloj

La mayoría de los CPU, y de hecho, la mayoría de los dispositivos de lógica secuencial, son de naturaleza síncrona.[8] Es decir, están diseñados y operan en función de una señal de sincronización. Esta señal, conocida como señal de reloj, usualmente toman la forma de una onda cuadrada periódica. Calculando el tiempo máximo en que las señales eléctricas pueden moverse en las varias bifurcaciones de los muchos circuitos de un CPU, los diseñadores pueden seleccionar un período apropiado para la señal del reloj.

Este período debe ser más largo que la cantidad de tiempo que toma a una señal moverse, o propagarse, en el peor de los casos. Al fijar el período del reloj a un valor bastante sobre el retardo de la propagación del peor caso, es posible diseñar todo el CPU y la manera que mueve los datos alrededor de los “bordes” de la subida y bajada de la señal del reloj. Esto tiene la ventaja de simplificar el CPU significativamente, tanto en una perspectiva de diseño, como en una perspectiva de cantidad de componentes. Sin embargo, esto también tiene la desventaja que todo el CPU debe esperar por sus elementos más lentos, aun cuando algunas porciones del mismo son mucho más rápidas. Esta limitación ha sido compensada en gran parte por varios métodos de aumentar el paralelismo del CPU (ver abajo).

Sin embargo, las solamente mejoras arquitectónicas no solucionan todas las desventajas de CPUs globalmente síncronos. Por ejemplo, una señal de reloj está sujeta a los retardos de cualquier otra señal eléctrica. Velocidades de reloj más altas en CPUs cada vez más complejos hacen más difícil de mantener la señal del reloj en fase (sincronizada) a través de toda la unidad. Esto ha conducido que muchos CPU modernos requieran que se les proporcione múltiples señales de reloj idénticas, para evitar retardar una sola señal lo suficiente significativamente como para hacer al CPU funcionar incorrectamente. Otro importante problema cuando la velocidad del reloj aumenta dramáticamente, es la cantidad de calor que es disipado por el CPU. La señal del reloj cambia constantemente, provocando la conmutación de muchos componentes (cambio de estado) sin importar si están siendo usados en ese momento. En general, un componente que está cambiando de estado, usa más energía que un elemento en un estado estático. Por lo tanto, a medida que la velocidad del reloj aumenta, así lo hace también la disipación de calor, causando que el CPU requiera soluciones de enfriamiento más efectivas.

Un método de tratar la conmutación de componentes innecesarios se llama el clock gating, que implica apagar la señal del reloj a los componentes innecesarios, efectivamente desactivándolos. Sin embargo, esto es frecuentemente considerado como difícil de implementar y por lo tanto no ve uso común afuera de diseños de muy baja potencia.[9] Otro método de tratar algunos de los problemas de una señal global de reloj es la completa remoción de la misma. Mientras que quitar la señal global del reloj hace, de muchas maneras, considerablemente más complejo el proceso del diseño, en comparación con diseños síncronos similares, los diseños asincrónicos (o sin reloj) tienen marcadas ventajas en el consumo de energía y la disipación de calor. Aunque algo infrecuente, CPUs completos se han construido sin utilizar una señal global de reloj. Dos notables ejemplos de esto son el AMULET, que implementa la arquitectura del ARM, y el MiniMIPS, compatible con el MIPS R3000. En lugar de remover totalmente la señal del reloj, algunos diseños de CPU permiten a ciertas porciones del dispositivo ser asincrónicas, como por ejemplo, usar ALUs asincrónicas en conjunción con pipelining superescalar para alcanzar algunas ganancias en el desempeño aritmético. Mientras que no está completamente claro si los diseños totalmente asincrónicos pueden desempeñarse a un nivel comparable o mejor que sus contrapartes síncronas, es evidente que por lo menos sobresalen en las más simples operaciones matemáticas. Esto, combinado con sus excelentes características de consumo de energía y disipación de calor, los hace muy adecuados para los computadores empotrados .

Paralelismo:

Modelo de un CPU subescalar. Note que toma quince ciclos para terminar tres instrucciones.

 La descripción de la operación básica de un CPU ofrecida en la sección anterior describe la forma más simple que puede tomar un CPU. Este tipo de CPU, usualmente referido como subescalar, opera sobre y ejecuta una sola instrucción con una o dos piezas de datos a la vez.

Este proceso da lugar a una ineficacia inherente en CPUs subescalares. Puesto que solamente una instrucción es ejecutada a la vez, todo el CPU debe esperar que esa instrucción se complete antes de proceder a la siguiente instrucción. Como resultado, el CPU subescalar queda “paralizado” en instrucciones que toman más de un ciclo de reloj para completar su ejecución. Incluso la adición de una segunda unidad de ejecución (ver abajo) no mejora mucho el desempeño. En lugar de un camino quedando congelado, ahora dos caminos se paralizan y aumenta el número de transistores no usados. Este diseño, en donde los recursos de ejecución del CPU pueden operar con solamente una instrucción a la vez, solo puede, posiblemente, alcanzar el desempeño escalar (una instrucción por ciclo de reloj). Sin embargo, el desempeño casi siempre es subescalar (menos de una instrucción por ciclo).

Las tentativas de alcanzar un desempeño escalar y mejor, han resultado en una variedad de metodologías de diseño que hacen comportarse al CPU menos linealmente y más en paralelo. Cuando se refiere al paralelismo en los CPU, generalmente son usados dos términos para clasificar estas técnicas de diseño.

  • El paralelismo a nivel de instrucción, en inglés Instruction Level Parallelism (ILP), busca aumentar la tasa en la cual las instrucciones son ejecutadas dentro de un CPU, es decir, aumentar la utilización de los recursos de ejecución en la pastilla
  • El paralelismo a nivel de hilo de ejecución, en inglés thread level parallelism (TLP), que se propone incrementar el número de hilos (efectivamente programas individuales) que un CPU pueda ejecutar simultáneamente.

Cada metodología se diferencia tanto en las maneras en las que están implementadas, como en la efectividad relativa que producen en el aumento del desempeño del CPU para una aplicación.

ILP: Entubado de instrucción y arquitectura superescalar

Tubería básica de cinco etapas. En el mejor de los casos, esta tubería puede sostener un ratio de completado de una instrucción por ciclo.

Uno de los más simples métodos usados para lograr incrementar el paralelismo es comenzar los primeros pasos de leer y decodificar la instrucción antes de que la instrucción anterior haya terminado de ejecutarse. Ésta es la forma más simple de una técnica conocida como instruction pipelining (entubado de instrucción), y es utilizada en casi todos los CPU de propósito general modernos. Al dividir la ruta de ejecución en etapas discretas, la tubería permite que más de una instrucción sea ejecutada en cualquier tiempo. Esta separación puede ser comparada a una línea de ensamblaje, en la cual una instrucción es hecha más completa en cada etapa hasta que sale de la tubería de ejecución y es retirada.

Sin embargo, la tubería introduce la posibilidad de una situación donde es necesario terminar el resultado de la operación anterior para completar la operación siguiente; una condición llamada a menudo como conflicto de dependencia de datos. Para hacer frente a esto, debe ser tomado un cuidado adicional para comprobar estas clases de condiciones, y si esto ocurre, se debe retrasar una porción de la tubería de instrucción. Naturalmente, lograr esto requiere circuitería adicional, los procesadores entubados son más complejos que los subescalares, pero no mucho. Un procesador entubado puede llegar a ser casi completamente escalar, solamente inhibido por las abruptas paradas de la tubería (una instrucción durando más de un ciclo de reloj en una etapa).

Tubería superescalar simple. Al leer y despachar dos instrucciones a la vez,un máximo de dos instrucciones por ciclo pueden ser completadas.

Una mejora adicional sobre la idea del entubado de instrucción (instruction pipelining) condujo al desarrollo de un método que disminuye incluso más el tiempo ocioso de los componentes del CPU. Diseños que se dice que son superescalares incluyen una larga tubería de instrucción y múltiples unidades de ejecución idénticas. En una tubería superescalar, múltiples instrucciones son leídas y pasadas a un despachador, que decide si las instrucciones se pueden o no ejecutar en paralelo (simultáneamente). De ser así, son despachadas a las unidades de ejecución disponibles, dando por resultado la capacidad para que varias instrucciones sean ejecutadas simultáneamente. En general, cuanto más instrucciones un CPU superescalar es capaz de despachar simultáneamente a las unidades de ejecución en espera, más instrucciones serán completadas en un ciclo dado.

La mayor parte de la dificultad en el diseño de una arquitectura superescalar de CPU descansa en crear un despachador eficaz. El despachador necesita poder determinar rápida y correctamente si las instrucciones pueden ejecutarse en paralelo, tan bien como despacharlas de una manera que mantenga ocupadas tantas unidades de ejecución como sea posible. Esto requiere que la tubería de instrucción sea llenada tan a menudo como sea posible y se incrementa la necesidad, en las arquitecturas superescalares, de cantidades significativas de caché de CPU. Esto también crea técnicas para evitar peligros como la predicción de bifurcación, ejecución especulativa, y la ejecución fuera de orden, cruciales para mantener altos niveles de desempeño.

  • La predicción de bifurcación procura predecir qué rama (o trayectoria) tomará una instrucción condicional, el CPU puede minimizar el número de tiempos que toda la tubería debe esperar hasta que sea completada una instrucción condicional.
  • La ejecución especulativa frecuentemente proporciona aumentos modestos del desempeño al ejecutar las porciones de código que pueden o no ser necesarias después de que una operación condicional termine.
  • La ejecución fuera de orden cambia en algún grado el orden en el cual son ejecutadas las instrucciones para reducir retardos debido a las dependencias de los datos.

En el caso donde una porción del CPU es superescalar y una parte no lo es, la parte que no es superescalar sufre en el desempeño debido a las paradas de horario. El Intel Pentium original (P5) tenía dos ALUs superescalares que podían aceptar, cada una, una instrucción por ciclo de reloj, pero su FPU no podía aceptar una instrucción por ciclo de reloj. Así el P5 era superescalar en la parte de números enteros pero no era superescalar de números de coma (o punto [decimal]) flotante. El sucesor a la arquitectura del Pentium de Intel, el P6, agregó capacidades superescalares a sus funciones de coma flotante, y por lo tanto produjo un significativo aumento en el desempeño de este tipo de instrucciones.

El entubado simple y el diseño superescalar aumentan el ILP de un CPU al permitir a un solo procesador completar la ejecución de instrucciones en ratios que sobrepasan una instrucción por ciclo (IPC).[11] La mayoría de los modernos diseños de CPU son por lo menos algo superescalares, y en la última década, casi todos los diseños de CPU de propósito general son superescalares. En los últimos años algo del énfasis en el diseño de computadores de alto ILP se ha movido del hardware del CPU hacia su interface de software, o ISA. La estrategia de la muy larga palabra de instrucción, very long instruction word (VLIW), causa a algún ILP a ser implícito directamente por el software, reduciendo la cantidad de trabajo que el CPU debe realizar para darle un empuje significativo al ILP y por lo tanto reducir la complejidad del diseño.

TLP: Ejecución simultánea de hilos :

Otra estrategia comúnmente usada para aumentar el paralelismo de los CPU es incluir la habilidad de correr múltiples hilos (programas) al mismo tiempo. En general, CPUs con alto TLP han estado en uso por mucho más tiempo que los de alto ILP. Muchos de los diseños en los que Seymour Cray fue pionero durante el final de los años 1970 y los años1980 se concentraron en el TLP como su método primario de facilitar enormes capacidades de computación (para su tiempo). De hecho, el TLP, en la forma de mejoras en múltiples hilos de ejecución, estuvo en uso tan temprano como desde los años 1950 . En el contexto de diseño de procesadores individuales, las dos metodologías principales usadas para lograr el TLP son, multiprocesamiento a nivel de chip, en inglés chip-level multiprocessing (CMP), y el multihilado simultáneo, en inglés simultaneous multithreading (SMT). En un alto nivel, es muy común construir computadores con múltiples CPU totalmente independientes en arreglos como multiprocesamiento simétrico (symmetric multiprocessing (SMP)) y acceso de memoria no uniforme (Non-Uniform Memory Access (NUMA)).[12] Aunque son usados medios muy diferentes, todas estas técnicas logran la misma meta: incrementar el número de hilos que el CPU(s) puede correr en paralelo.

Los métodos de paralelismo CMP y de SMP son similares uno del otro y lo más directo. Éstos implican algo más conceptual que la utilización de dos o más CPU completos y CPU independientes. En el caso del CMP, múltiples “núcleos” de procesador son incluidos en el mismo paquete, a veces en el mismo circuito integrado.[13] Por otra parte, el SMP incluye múltiples paquetes independientes. NUMA es algo similar al SMP pero usa un modelo de acceso a memoria no uniforme. Esto es importante para los computadores con muchos CPU porque el tiempo de acceso a la memoria, de cada procesador, es agotado rápidamente con el modelo de memoria compartido del SMP, resultando en un significativo retraso debido a los CPU esperando por la memoria. Por lo tanto, NUMA es considerado un modelo mucho más escalable, permitiendo con éxito que en un computador sean usados muchos más CPU que los que pueda soportar de una manera factible el SMP. El SMT se diferencia en algo de otras mejoras de TLP en que el primero procura duplicar tan pocas porciones del CPU como sea posible. Mientras es considerada una estrategia TLP, su implementación realmente se asemeja más a un diseño superescalar, y de hecho es frecuentemente usado en microprocesadores superescalares, como el POWER5 de IBM. En lugar de duplicar todo el CPU, los diseños SMT solamente duplican las piezas necesarias para lectura, decodificación, y despacho de instrucciones, así como cosas como los registros de propósito general. Esto permite a un CPU SMT mantener sus unidades de ejecución ocupadas más frecuentemente al proporcionarles las instrucciones desde dos diferentes hilos de software. Una vez más esto es muy similar al método superescalar del ILP, pero ejecuta simultáneamente instrucciones de múltiples hilos en lugar de ejecutar concurrentemente múltiples instrucciones del mismo hilo.

Procesadores vectoriales y el SIMD :

Un menos común pero cada vez más importante paradigma de CPU (y de hecho, de computación en general) trata con vectores. Los procesadores de los que se ha hablado anteriormente son todos referidos como cierto tipo de dispositivo escalar.[14] Como implica su nombre, los procesadores vectoriales se ocupan de múltiples piezas de datos en el contexto de una instrucción, esto contrasta con los procesadores escalares, que tratan una pieza de dato por cada instrucción. Estos dos esquemas de ocuparse de los datos son generalmente referidos respectivamente como SISD (Single Instruction, Single Data|) (Simple Instrucción, Simple Dato) y SIMD (Single Instruction, Multiple Data) (Simple Instrucción, Múltiples Datos). La gran utilidad en crear CPUs que se ocupen de vectores de datos radica en la optimización de tareas que tienden a requerir la misma operación, por ejemplo, una suma, o un producto escalar, a ser realizado en un gran conjunto de datos. Algunos ejemplos clásicos de este tipo de tareas son las aplicaciones multimedia (imágenes, vídeo, y sonido), así como muchos tipos de tareas científicas y de ingeniería. Mientras que un CPU escalar debe completar todo el proceso de leer, decodificar, y ejecutar cada instrucción y valor en un conjunto de datos, un CPU vectorial puede realizar una simple operación en un comparativamente grande conjunto de datos con una sola instrucción. Por supuesto, esto es solamente posible cuando la aplicación tiende a requerir muchos pasos que apliquen una operación a un conjunto grande de datos.

La mayoría de los primeros CPU vectoriales, como el Cray-1, fueron asociados casi exclusivamente con aplicaciones de investigación científica y criptografía. Sin embargo, a medida que la multimedia se desplazó en gran parte a medios digitales, ha llegado a ser significativa la necesidad de una cierta forma de SIMD en CPUs de propósito general. Poco después de que comenzara a ser común incluir unidades de coma flotante en procesadores de uso general, también comenzaron a aparecer especificaciones e implementaciones de unidades de ejecución SIMD para los CPU de uso general. Algunas de estas primeras especificaciones SIMD, como el MMX de Intel, fueron solamente para números enteros. Esto demostró ser un impedimiento significativo para algunos desarrolladores de software, ya que muchas de las aplicaciones que se beneficiaban del SIMD trataban sobre todo con números de coma flotante. Progresivamente, éstos primeros diseños fueron refinados y rehechos en alguna de las comunes, modernas especificaciones SIMD, que generalmente están asociadas a un ISA. Algunos ejemplos modernos notables son el SSE de Intel y el AltiVec relacionado con el PowerPC (también conocido como VMX).

Posted in Tecnologias de informacion | Etiquetado: | Leave a Comment »

Windows 7

Posted by yolvi en 13/06/2009

(Parte de la familia Microsoft Windows)
Desarrollador
Microsoft
Sitio web: Bienvenido a Windows 7
Información general
Lanzamiento: 22 de octubre de 2009 (info)
Última versión en pruebas: 6.1.7100
(5 de mayo de 2009; hace 39 días) (info)
Estado: En desarrollo
Modelo de desarrollo: Software propietario
Licencia: Microsoft CLUF
Núcleo: NT 6.1
Tipo de núcleo: Híbrido
Método de actualización: Windows Update
Plataformas soportadas: x86, x64
Artículos relacionados
Desarrollo de Windows 7

3_windows7-wallpaper01
Windows 7 (anteriormente conocido con nombre código Blackcomb, y luego Vienna) será la próxima versión de Microsoft Windows, un sistema operativo producido por Microsoft Corporation para uso en PCs, incluyendo equipos de escritorio en hogares y oficinas, Notebooks, tablet PCs, netbooks y equipos media center.[1]
A diferencia de su predecesor, Windows 7 está previsto como una actualización incremental del núcleo NT 6.0, esto con la meta de mantener cierto grado de compatibilidad con aplicaciones y hardware en los que Windows Vista ya es compatible.[2] Las metas de desarrollo para Windows 7 son el mejorar su interfaz para hacerla más amigable al usuario, con nuevas caracteristicas que permitirán hacer tareas de una manera más fácil y rápida, al mismo tiempo en que se realizan esfuerzos para lograr un sistema más ligero, estable y rápido.[3] Diversas presentaciones dadas por la compañía en el 2008 se han enfocado en demostrar capacidades táctiles multi-touch, una interfaz rediseñada junto con una nueva barra de tareas y un sistema de redes domésticas denominado HomeGroup,[4] además de mejoras en el rendimiento.

Desarrollo:
El desarrollo de este sistema operativo comenzó inmediatamente después del lanzamiento de Windows Vista. El 20 de julio de 2007, se reveló que este sistema operativo es llamado internamente por Microsoft como la versión “7”. Hasta el momento, la compañía declaró que Windows 7 tendrá soporte para plataformas de 32 bits y 64 bits,[5] aunque la versión para servidor (que sucedería a Windows Server 2008) será exclusivamente de 64 bits.[6]
El 13 de octubre del 2008 fue anunciado que “Windows 7” además de haber sido uno de los tantos nombres código, sería el nombre oficial de este nuevo sistema operativo. Mike Nash dijo que esto se debía a que Windows 7 apunta a la simplicidad, y el nombre debe reflejarlo.
Ya para el 7 de enero del 2009, la versión beta se publicó para suscriptores de Technet y MSDN. El 9 de enero, se habilitó brevemente al público general mediante descarga directa en la página oficial, pero hubo problemas con los servidores que obligaron a retirar la posibilidad de descarga hasta horas más tarde después de añadir más servidores y, además, cambiaron el límite de 2,5 millones de personas como disculpa por el problema del retraso, el nuevo límite fue hasta el 10 de febrero del 2009.
El 5 de Mayo la version Release Candidate fue lanzada en 5 idiomas, entre ellos el español.
El 11 de Mayo Microsoft anuncio en un boletín que Windows 7 estará disponible para las navidades del 2009.[7]
El 2 de junio Microsoft anuncio que la salida mundial de Windows 7 será el 22 de Octubre. [8]
Enfoque:
Windows 7 estará más enfocado en el rendimiento del sistema operativo. En el blog oficial Microsoft publicó seis de los puntos más relevantes a trabajar: empleo de memoria, utilización de CPU, operaciones de entrada y salida a disco, operaciones de arranque, cierre y reposo, rendimiento del sistema base y empleo de disco por parte del sistema.[9]
En una entrevista con Newsweek, Bill Gates dijo que esta nueva versión de Windows sería más centrada en el usuario; además comentó que trabajan con esmero para mejorar el rendimiento.
También uno de sus principales objetivos es mejorar el arranque y tienen como propósito que inicie en menos de 15 segundos. Para esto se propusieron reducir la cantidad de programas y servicios que se inician al cargar Windows.[10]
Otra cosa muy presente en el desarrollo de este sistema (gracias a las quejas de los usuarios) es minimizar la intrusión, mejorar el rendimiento y habilitar la modificación del Control de Cuentas de Usuario, ya que éste fue un total fracaso en Windows Vista debido a sus constantes alertas innecesarias en simples acciones diarias.[11]
En una carta escrita por el vicepresidente de Microsoft Corporation, Bill Veghte, se habla sobre la visión que tienen para Windows 7:
Hemos aprendido mucho a través de los comentarios que ustedes han compartido con nosotros acerca de Windows Vista y esa retroalimentación juega un papel importante en nuestro trabajo para Windows 7. Nos han dicho que desean una programación más estructurada y predecible para la liberación de Windows… …nuestro enfoque hacia Windows 7 es basarnos en la misma arquitectura base de Windows Vista Service Pack 1, de manera que las inversiones que ustedes y nuestros socios han realizado en Windows Vista continúen redituando con Windows 7. Nuestro objetivo es asegurar que el proceso de migración de Windows Vista a Windows 7 sea transparente.[12]
Características:
Windows 7 incluye numerosas nuevas actualizaciones, incluyendo avances en reconocimiento de voz, táctil y escritura, soporte para discos virtuales, mejor desempeño en procesadores multi-núcleo, mejor arranque y mejoras en el núcleo.
Muchas nuevas características se agregaron al Panel de Control como: Aceleradores, Gadgets, Infrarrojo, Solución de problemas, Localización y otros sensores, Administrador de Credenciales, Windows Solution Center, entre otros.
Se hicieron grandes cambios en programas como WordPad, Paint, Calculadora y Teclado en pantalla.
La barra lateral de Windows o más conocida como Windows Sidebar se ha eliminado y ahora los gadgets pueden ubicarse libremente en cualquier lugar del escritorio.
Impresoras y dispositivos Nuevo item del panel del control en la que se tendrá acceso a todo el hardware que se conecte al PC (marcos digitales, impresoras, cámaras fotográficas, etc). Junto a esto se ha incluido Device Stage, es un administrador de dispositivos móviles que ayuda a los usuarios a sincronizar música, vídeos, fotos y da información acerca del estado de la tarjeta SIM, la carga de la batería, mensajes, etc.
Aero Snaps: Permite cambiar el tamaño de una ventana simplemente con arrastrarla a un extremo de la pantalla, por ejemplo, si se arrastra al tope se maximiza, a la derecha o izquierda ocupa el 50% de la pantalla según el lado al que la arrastremos y si la arrastramos nuevamente al centro toma el tamaño original.
Windows Explorer:
Bibliotecas: Las “Bibliotecas” son carpetas virtuales que agregan el contenido de varias carpetas y las muestran en una sola. Por ejemplo las carpetas agregadas en la librería “Vídeos” por defecto son: “Vídeos Personales” (antes “Mis Vídeos”) y “Vídeos Públicos”aunque se pueden agregar más manualmente. Sirven para clasificar los diferentes tipos de archivos (Documentos, Música, Vídeos, Fotos).
Aero Shake Cuando se tiene varias ventanas abiertas, al seleccionar una y agitarla, las otras ventanas abiertas se minimizan, al repetir esta acción, las ventanas vuelven a su ubicación anterior.
Barra de tareas:
La barra de tareas pasó por un lavado de cara haciéndola concordar más a las demás transparencias del sistema, se hizo más larga , los rectángulos de las ventanas ya no traen texto, solo el icono de la aplicación, y son más cuadrados. Estos cambios se hacen para mejorar el desempeño del “touch”. Se integró con el inicio rápido, ahora las ventanas abiertas se muestran con un borde indicando que están abiertas y los accesos directos sin borde.
Aero Peek: Las previsualizaciones incluidas desde Windows Vista se han mejorado pasando a ser más interactivas y útiles. Cuando se posa el mouse sobre una aplicación abierta este muestra una previsualización de la ventana donde muestra el nombre, la previsualización y la opción de cerrarla, ádemas, si se pone el ratón sobre la previsualización, se obtiene una mirada a pantalla completa y al quitar el mouse se regresa a donde estábamos. Ádemas se incorporo esta caracteristica a Windows Flip
Jump List: Haciendo click derecho a cualquier aplicación de la barra de tareas aparece una “Jump List” en donde se pueden hacer tareas sencillas de acuerdo a la aplicación, por ejemplo, abrir documentos recientes de Office, abrir pestañas recientes de Internet Explorer, escoger listas de reproducción en el Media Player, cambiar estatus en messenger, etc.
Mostrar Escritorio: Esta nueva barra trae un pequeño rectángulo en la esquina derecha que reemplaza el ícono en inicio rápido de versiones anteriores. Este nuevo “rectángulo” permite que al poner el puntero sobre él, haga que las ventanas se pongan 100% transparentes, esto sirve para poder ver el escritorio de manera rápida, ver gadgets u otras cosas, ó también simplemente se le puede dar click y minimizar todas las ventanas.
En el área de notificaciones por defecto solo se mostrarán las tareas del sistema y estas serán mas interactivas y permitirán realizar acciones sencillas sin tener que abrir una ventana
Multimedia:
Windows 7 vendrá con nuevas versiones de Windows Media Center y Windows Media Player capaces de reproducir formatos MP4, MOV, 3GP, AVCHD, ADTS y WTV, e incluye codecs como H.264, MPEG4-SP, ASP/DivX/Xvid, MJPEG, DV, AAC, LPCM. Además, el Media Player también trae una versión lite para reproducir vídeos sin tener que cargar la biblioteca y otras cosas.
Interfaz:
Se ha establecido públicamente que el equipo de desarrollo de la interfaz Ribbon de Microsoft Office 2007 formará parte activa en el rediseño del Explorador de Windows y posiblemente otros elementos de la Interfaz de Usuario. Esta interfaz ya está incluida en Paint y Wordpad (En Betas de Windows 7).
Multi-Touch:
El 27 de mayo de 2008, Steve Ballmer y Bill Gates en la conferencia “D6: All Things Digital” dieron a conocer la nueva interfaz multi-touch llamándola “sólo una pequeña parte” de lo que vendrá con Windows 7. Más tarde Julie Larson Green vicepresidente corporativa mostró posibles usos, como hacer dibujos en Paint, agrandar o reducir fotos y recorrer un mapa en Internet, arrastrar y abrir elementos, simplemente con toques en la pantalla.
“Hoy en día la mayoría de las computadoras son manejadas gracias a la interacción mouse-teclado”, dijo Bill Gates, presidente de Microsoft. “En los próximos años, el papel de la voz, la visión, la tinta -todos ellos- será enorme”, afirmó.
Otras características:
Algunas otras características originalmente planeadas para Windows Vista pueden ser parte de Windows 7, dependiendo de cuando éstas sean concluidas.
Windows 7 además incorporará un Hypervisor, el cual tendrá las características discutidas durante la fase preliminar de desarrollo de Windows Vista. Todo el código no administrado correrá en un entorno cerrado donde el acceso al “mundo externo” estará restringido por el sistema operativo. El acceso a los componentes externos estará deshabilitado desde este entorno cerrado, como el acceso directo al sistema de archivos, la capa de abstracción de hardware (HAL), y el direccionamiento de memoria. Todo acceso a las aplicaciones externas, archivos, y protocolos será regulado por el sistema operativo, y cualquier actividad maliciosa será detenida inmediatamente. Si esta aproximación es satisfactoria, se presagia muy bien la seguridad del usuario, haciendo virtualmente imposible para una aplicación maliciosa causar daño al sistema si dicha aplicación está bloqueada dentro de esta metafórica “caja de cristal”. También, este entorno cerrado será capaz de adaptarse a sí mismo al código base al cual fue escrito. Esto aliviará muchos problemas que se presenten por compatibilidad cada vez que un nuevo sistema operativo sale al mercado.
Otra característica mencionada por Bill Gates es que “las líneas de mecanografía reconocerán lo que el usuario esté tecleando”. Las implicaciones de esto podrían ser simplemente como la función “autocompletar” encontrada en los motores de búsqueda modernos, (como Google Suggest) o como una forma de dar comandos verbales al PC sin preocuparse por la sintaxis. Posiblemente, esto puede darse mediante interfaces de comando basadas en Windows PowerShell. De hecho, ya se ha estado diciendo que las futuras herramientas de administración de la GUI serán envueltas con PowerShell, así incorporar la línea de comandos en estas herramientas es natural.
Microsoft ha decidido no incluir los programas Windows Mail, Windows Movie Maker y Windows Photo Gallery en Windows 7 y en su lugar ponerlos a disposición a modo de descarga en el paquete de Windows Live Essentials.[13]
Esto se ha decidido para facilitar las actualizaciones de estos programas, aligerar el sistema operativo, dejar escoger al usuario las aplicaciones que quiere tener en su equipo y evitar futuras demandas por monopolio. También se ha renovado la calculadora con nuevas funciones y nueva interfaz.
Una de las características que mas ha llamado la atención es el tiempo de carga de la versión Beta. La misma ha sido comparada con Windows Vista y sus resultados son interesantes al promover un inicio mas rápido en aproximadamente 15 segundos. Este resultado se obtiene al iniciar servicios solo bajo demanda, evitando la carga de aquellos que no son realmente necesarios hasta que una aplicación lo requiera.
Requisitos de hardware:
A finales de Abril del 2009 Microsoft dio a conocer los requerimientos finales de Windows 7.
Requisitos minimos recomendados para Windows 7[14]

Requerimientos minimos recomendados
Velocidad del procesador 1 GHz (Para 32-bit o 64-bit)
Memoria RAM 1 GB (32-bit) 2 GB (64-bit)
Tarjeta gráfica Dispositivo de gráficos DirectX 9 con WDDM 1.0 o superior
Espacio libre 16 GB
Unidades DVD-ROM
Opcionalmente se requiere un monitor táctil para poder acceder a las características “multi-touch” de este nuevo sistema.
Ediciones:
Microsoft ya ha confirmado que Windows 7 tendrá seis ediciones, aunque solo se enfocaran en comercializar dos de ellas, la edición Home Premium y la Professional. Añadida a estas dos están las ediciones Ultimate y Enterprise, que estarán destinadas a grupos empresariales. La edición Home Basic estará disponible solo para mercados emergentes, y la edición Starter estará disponible únicamente en equipos preinstalados (OEM).
Starter: Especial para ultraportátiles que sólo llegará en equipos preinstalados. No se podrá cambiar el fondo de escritorio pero se ha eliminado la restricción de 3 aplicaciones activas al mismo tiempo.
Home Basic: Sólo para mercados emergentes, no se comercializará en Europa occidental, Estados Unidos y Japón, añadirá a Starter las vistas en miniatura, soporte avanzado de redes y Mobility center.
Home Premium: Incluye Media Center, Aero Glass, mejora en el soporte de formatos, incluye venta minorista en retail
Professional: Equivalente a Vista Business. Protección de datos con copia de seguridad avanzada, red administrada con Domain Job, impresión en Red localizada mediante Location Aware Printing, cifrado de archivos.
Enterprise: Protección de datos con Bitlocker en discos duros externos e internos; Applocker; Direct Access; únicamente licencias en volumen preinstalado en equipos nuevos.
Ultimate: Incluye todos los extras
Compatibilidad:
Microsoft ha afirmado que Windows 7 tendrá plena compatibilidad con controladores, aplicaciones, etc. De modo que no se repitan inconvenientes en cuanto a compatibilidad tal como sucedió al usar programas que funcionaban a la perfección en Windows XP y no en Windows Vista.
Las versiones cliente de Windows 7 serán lanzadas en versiones para arquitectura 32 bits y 64 bits en versiones para Professional y Home. No obstante, las versiones servidor de este producto serán lanzadas exclusivamente para arquitectura 64 bits.
Esto significa que, las versiones cliente de 32 bits aún soportarán programas Windows 16 bits y MS-DOS. Y las versiones 64 bits (incluyendo todas las versiones de servidor), soportarán tanto programas de 32 como de 64 bits.
Críticas:
Se ha criticado la nueva barra de tareas por ser complicada de entender y manejar, ya que al fusionarse con el inicio rápido, se confunden cuales están abiertos y cuáles no, es decir, cuáles son accesos directos y cuáles están ejecutándose en ese momento, también se dificulta el abrir nuevas ventanas de los programas que se están ejecutando. También se ha hablado sobre la funcionalidad de la “Jump List”, además de lo complejo que llegan a ser las nuevas “Bibliotecas”.[15]
Por otra parte, inicialmente la versión Beta (compilación 7000) tenia un problema que corrompía los ficheros MP3s al ser consultados y editados por Windows Media Player, el Explorador de Windows, Windows Media Center, o cualquier componente del Sistema Operativo que intente modificar la información proveniente de metadatos en el fichero MP3 como el autor, el año, el álbum al que pertenece, etc. Este error del sistema provoca que el fichero afectado pierda de forma irrecuperable los primeros segundos del mismo. Microsoft publicó una actualización que arregla el problema en la Beta (compilación 7000) de Windows 7,[16] además de corregirlo definitivamente en todas las siguientes compilaciones posteriores como la “Release Candidate” (compilación 7100).

Wallppapers de Windons Seven:

qo4nn8y4tj6988325gyei3sbcw

img-wallpapers-windows-seven-glow-wallpaper-dj-corny-15325

Posted in programas | Etiquetado: | Leave a Comment »

Tecnologias de Colaboracion

Posted by yolvi en 06/06/2009

PROBLEMAS DE NEGOCIOS:

¿Su personal invierte tiempo en solicitar
y buscar información con sus compañeros
de trabajo?
¿Incurre en costos y perdidas de tiempo
por que la información no está a la
mano?
¿La información útil en sus portales está
limitada a las contribuciones de
unas pocas personas?
¿Se invierten considerables recursos
en la publicación de información y procesos
para hacerla disponible?

DEFINICION:

Las Herramientas de Colaboración proporcionan a cada
elemento dentro de la organización la capacidad de interactuar
y compartir información en forma de documentos,
ideas, etc., con los diversos equipos de trabajo a los que
pertenezca. Hace posible el trabajo en equipo entre individuos
físicamente dispersos y proporciona un medio para
que el conocimiento de la empresa se pueda localizar y
organizar en un solo medio. Permite asegurar la información
mediante esquemas de seguridad que otorgan el
acceso a la información únicamente al personal relevante
y mantiene el control y versionamiento de los cambios
generados por cualquier usuario.
La Administración de Contenido es el concepto mediante
el cual la publicación de información hacia ambientes Web
internos o externos deja de ser una responsabilidad técnica
de las áreas de sistemas, y permite a cualquier individuo
generar y publicar la información asegurándose de
que ésta sea revisada mediante flujos de aprobación antes
de su publicación.
Esto permite obtener un contenido mucho más útil para
clientes, socios y empleados en ambientes de Intranet e
Internet.

INTRODUCCION:

El activo más valioso de una empresa se encuentra en el
conocimiento de sus empleados, sin embargo este conocimiento
es difícil de aprovechar cuando se encuentra exclusivamente
en la mente de cada individuo. Mediante
herramientas de colaboración es más sencillo potenciar
este conocimiento y compartirlo a través de la organización,
ayudando a mejorar el desempeño general de cada
individuo.
Potenciar el conocimiento implica generar grandes cantidades
de información constantemente. La habilidad para
administrar esta información y hacerla disponible a sus
empleados, clientes y socios, es crítica. Por lo tanto, es
imprescindible contar, además, con mecanismos que permitan
la publicación de la información desde su origen, de
acuerdo a políticas preestablecidas y evitando cuellos de
botella.

 

Posted in intereses, Tecnologias de informacion | Etiquetado: | Leave a Comment »

Avances Tecnológicos

Posted by yolvi en 29/05/2009

Detector de virus portátil:

Imaginemos poder detectar en apenas unos minutos si alguien está infectado con un virus. Ahora, según un artículo publicado en sciencedaily.com, esto se ha hecho realidad, gracias a un nuevo detector ultrasensible desarrollado por Ostendum, una empresa derivada de la Universidad de Twente.
La compañía acaba de completar el primer prototipo y espera introducir la primera versión del detector en el mercado a finales de 2010. El detector no solo realiza las mediciones mucho más rápido que las técnicas estándares, sino que además es potátil, por lo que se puede utilizar en cualquier sitio.
Aurel Ymeti (Director de I+D), Alma Dudia (investigadora senior) y Paul Nederkoorn (CEO) de Ostendum, afirman que si pudieran disponer de los anticuerpos específicos para la gripe porcina, podrían detectar la presencia del virus en menos de cinco minutos. Además de virus, el dispositivo es capaz también de percibir un aumento o decremento en la concentración de bacterias, proteínas y moléculas de ADN concretas en la saliva de una persona, algo que podría ser un indicativo de que padece una u otra enfermedad.
Tras el comienzo de la gripe porcina, el encontrar un modo de detectar rápidamente y con facilidad si alguien está infectado con un virus vuelve a ser un tema candente. Es importante lograrlo cuanto antes con el fin de evitar que el virus se expanda aún más. No obstante, las técnicas que hay disponibles actualmente no ofrecen resultados hasta varias horas o incluso días después. Es más, los análisis no se pueden realizar sin un laboratorio o personal especializado.
Con el sistema de Ostendum, en cambio, tan solo se necesita una muestra de saliva, sangre u otro fluido corporal de la persona que se quiere analizar y la disponibilidad de un receptor específico (es decir, una sustancia que se enlaza con un microorganismo o sustancia biológica específica). Por ejemplo, en el caso de un virus, un anticuerpo específico serviría como receptor en el chip, pero es necesario disponer del anticuerpo específico para ese virus para poder aplicar el método de detección.
La compañía acaba de completar el primer prototipo del dispositivo y, actualmente, trabaja en el desarrollo de otros dos. Los tres prototipos deberán pasar unas pruebas prácticas, en función de cuyos resultados, se realizarán, a continuación, algunas mejoras más en el diseño del dispositivo. Ostendum espera sacar el primer dispositivo al mercado a finales de 2010.
El dispositivo consta de dos partes: un sistema de laboratorio en un chip (laboratorio en miniatura del tamaño de un chip) y un detector portátil. El chip contiene diminutos canales recubiertos con receptores. La muestra de sangre o saliva se traslada a los canales con la ayuda de un sistema de fluidos. Las sustancias presentes en la sangre o la saliva pueden, entonces, enlazarse a los receptores del chip. Posteriormente, se hace pasar la luz de un láser a través de los canales; si alguna de las sustancias se enlaza a los receptores en cualquiera de los canales, esto alterará la fase de la luz. El cambio se pondrá de manifiesto por sí solo en el patrón de interferencia y constituye una huella de cualquier virus presente o biomarcador. El método es altamente sensible, permitiendo medir el enlace de una sola partícula de virus

Mecatrónica (Mechatronics):
Para mejorar todo desde ahorro de combustible al rendimiento del mismo en sus diferentes prestaciones. Los que investigan automóviles del futuro estudian “mecatrónica”, la integración de sistemas mecánicos ya familiares con nuevos componentes y control de software inteligente.

Wireless Sensor Networks:
La creación de redes compuestas de miles o millones de sensores. Las redes observarán casi todo, incluyendo el tráfico, el tiempo, actividad sísmica, los movimientos de batallones en tiempo de guerra, y el estado de edificios y puentes, a una escala mucho más precisa que antes..

internetiphone-clone02

Posted in intereses, Tecnologias de informacion | Etiquetado: | Leave a Comment »

Conexiones Inalambricas

Posted by yolvi en 28/05/2009

Las redes inalámbricas (en inglés wireless network) son aquellas que se comunican por un medio de transmisión no guiado (sin cables) mediante ondas electromagnéticas. La transmisión y la recepción se realiza a través de antenas.
Tienen ventajas como la rápida instalación de la red sin la necesidad de usar cableado, permiten la movilidad y tienen menos costos de mantenimiento que una red convencional

Tipus_xarxa

Tipos :
Según su cobertura, se pueden clasificar en diferentes tipos:
* WPAN (Wireless Personal Area Network)
En este tipo de red de cobertura personal, existen tecnologías basadas en HomeRF (estándar para conectar todos los teléfonos móviles de la casa y los ordenadores mediante un aparato central); Bluetooth (protocolo que sigue la especificación IEEE 802.15.1); ZigBee (basado en la especificación IEEE 802.15.4 y utilizado en aplicaciones como la domótica, que requieren comunicaciones seguras con tasas bajas de transmisión de datos y maximización de la vida útil de sus baterías, bajo consumo); RFID (sistema remoto de almacenamiento y recuperación de datos con el propósito de transmitir la identidad de un objeto (similar a un número de serie único) mediante ondas de radio.
Cobertura y estándares
* WLAN (Wireless Local Area Network)
En las redes de área local podemos encontrar tecnologías inalámbricas basadas en HiperLAN (del inglés, High Performance Radio LAN), un estándar del grupo ETSI, o tecnologías basadas en Wi-Fi, que siguen el estándar IEEE 802.11 con diferentes variantes.
* WMAN (Wireless Metropolitan Area Network, Wireless MAN)
Para redes de área metropolitana se encuentran tecnologías basadas en WiMax (Worldwide Interoperability for Microwave Access, es decir, Interoperabilidad Mundial para Acceso con Microondas), un estándar de comunicación inalámbrica basado en la norma IEEE 802.16. WiMax es un protocolo parecido a Wi-Fi, pero con más cobertura y ancho de banda. También podemos encontrar otros sistemas de comunicación como LMDS (Local Multipoint Distribution Service).
* WWAN (Wireless Wide Area Network, Wireless WAN)
En estas redes encontramos tecnologías como UMTS (Universal Mobile Telecommunications System), utilizada con los teléfonos móviles de tercera generación (3G) y sucesora de la tecnología GSM (para móviles 2G), o también la tecnología digital para móviles GPRS (General Packet Radio Service).

Características:
Según el rango de frecuencias utilizado para transmitir, el medio de transmisión pueden ser las ondas de radio, las microondas terrestres o por satélite, y los infrarrojos, por ejemplo. Dependiendo del medio, la red inalámbrica tendrá unas características u otras:
Ondas de radio: las ondas electromagnéticas son omnidireccionales, así que no son necesarias las antenas parabólicas. La transmisión no es sensible a las atenuaciones producidas por la lluvia ya que se opera en frecuencias no demasiado elevadas. En este rango se encuentran las bandas desde la ELF que va de 3 a 30 Hz, hasta la banda UHF que va de los 300 a los 3000 MHz, es decir, comprende el espectro radioelectrico de 30 – 3000000 Hz.
Microondas terrestres: se utilizan antenas parabólicas con un diámetro aproximado de unos tres metros. Tienen una cobertura de kilómetros, pero con el inconveniente de que el emisor y el receptor deben estar perfectamente alineados. Por eso, se acostumbran a utilizar en enlaces punto a punto en distancias cortas. En este caso, la atenuación producida por la lluvia es más importante ya que se opera a una frecuencia más elevada. Las microondas comprenden las frecuencias desde 1 hasta 300 GHz.
Microondas por satélite: se hacen enlaces entre dos o más estaciones terrestres que se denominan estaciones base. El satélite recibe la señal (denominada señal ascendente) en una banda de frecuencia, la amplifica y la retransmite en otra banda (señal descendente). Cada satélite opera en unas bandas concretas. Las fronteras frecuenciales de las microondas, tanto terrestres como por satélite, con los infrarrojos y las ondas de radio de alta frecuencia se mezclan bastante, así que pueden haber interferencias con las comunicaciones en determinadas frecuencias.
Infrarrojos: se enlazan transmisores y receptores que modulan la luz infrarroja no coherente. Deben estar alineados directamente o con una reflexión en una superficie. No pueden atravesar las paredes. Los infrarrojos van desde 300 GHz hasta 384 THz.

Aplicaciones :
* Las bandas más importantes con aplicaciones inalámbricas, del rango de frecuencias que abarcan las ondas de radio, son la VLF (comunicaciones en navegación y submarinos), LF (radio AM de onda larga), MF (radio AM de onda media), HF (radio AM de onda corta), VHF (radio FM y TV), UHF (TV).
* Mediante las microondas terrestres, existen diferentes aplicaciones basadas en protocolos como Bluetooth o ZigBee para interconectar ordenadores portátiles, PDAs, teléfonos u otros aparatos. También se utilizan las microondas para comunicaciones con radares (detección de velocidad o otras características de objetos remotos) y para la televisión digital terrestre.
* Las microondas por satélite se usan para la difusión de televisión por satélite, transmisión telefónica a larga distancia y en redes privadas, por ejemplo.
* Los infrarrojos tienen aplicaciones como la comunicación a corta distancia de los ordenadores con sus periféricos. También se utilizan para mandos a distancia, ya que así no interfieren con otras señales electromagnéticas, por ejemplo la señal de televisión. Uno de los estándares más usados en estas comunicaciones es el IrDA (Infrared Data Association). Otros usos que tienen los infrarrojos son técnicas como la termografía, la cual permite determinar la temperatura de objetos a distancia.

Posted in programas, Tecnologias de informacion | Etiquetado: | Leave a Comment »

Discos Duros

Posted by yolvi en 27/05/2009

La Unidad de Disco Duro o Disco Rígido (“Hard Disc Drive” o HDD) es llamada simplemente “disco duro” o “disco rígido”, aunque en su interior contenga uno o varios discos magnéticos apilados.
Un disco duro (o rígido) es un dispositivo de almacenamiento no volátil, que conserva la información aun con la pérdida de energía, que emplea un sistema de grabación magnética digital; es donde en la mayoría de los casos se encuentra almacenado el sistema operativo de la computadora. Dentro de la carcasa hay una serie de platos metálicos apilados girando a gran velocidad. Sobre los platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. Hay distintos estándares para comunicar un disco duro con la computadora; los interfaces más comunes son Integrated Drive Electronics (IDE, también llamado ATA) , SCSI generalmente usado en servidores, SATA, este último estandarizado en el año 2004 y FC exclusivo para servidores.
Tal y como sale de fábrica, el disco duro no puede ser utilizado por un sistema operativo. Antes se deben definir en él un formato de bajo nivel, una o más particiones y luego hemos de darles un formato que pueda ser entendido por nuestro sistema.
También existe otro tipo de discos denominados de estado sólido que utilizan cierto tipo de memorias construidas con semiconductores para almacenar la información. El uso de esta clase de discos generalmente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya se puede encontrar en el mercado unidades mucho más económicas de baja capacidad (hasta 128 GB) para el uso en computadoras personales (sobre todo portátiles). Así, el caché de pista es una memoria de estado sólido, tipo memoria RAM, dentro de un disco duro de estado sólido.

Estructura física :
Dentro de un disco duro hay uno o varios platos (entre 2 y 4 normalmente, aunque hay hasta de 6 ó 7 platos), que son discos (de aluminio o cristal) concéntricos y que giran todos a la vez. El cabezal (dispositivo de lectura y escritura) es un conjunto de brazos alineados verticalmente que se mueven hacia dentro o fuera según convenga, todos a la vez. En la punta de dichos brazos están las cabezas de lectura/escritura, que gracias al movimiento del cabezal pueden leer tanto zonas interiores como exteriores del disco.
Cada plato tiene dos caras, y es necesaria una cabeza de lectura/escritura para cada cara (no es una cabeza por plato, sino una por cara). Si se mira el esquema Cilindro-Cabeza-Sector (más abajo), a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros) ó 3 millonésimas de milímetro. Si alguna llega a tocarlo, causaría muchos daños en el disco, rayándolo gravemente, debido a lo rápido que giran los platos (uno de 7.200 revoluciones por minuto se mueve a 129 km/h en el borde de un disco de 3,5 in.

250px-Hard_disk_platter_reflection

Direccionamiento :
Cilindro, Cabeza y Sector
Pista(A), Sector(B), Sector de una pista (C), Cluster (D)
Hay varios conceptos para referirse a zonas del disco:
* Plato: Cada uno de los discos que hay dentro del disco duro.
* Cara: Cada uno de los dos lados de un plato
* Cabeza: Número de cabezales;
* Pista: Una circunferencia dentro de una cara; la pista 0 está en el borde exterior.
* Cilindro: Conjunto de varias pistas; son todas las circunferencias que están alineadas verticalmente (una de cada cara).
* Sector : Cada una de las divisiones de una pista. El tamaño del sector no es fijo, siendo el estándar actual 512 bytes. Antiguamente el número de sectores por pista era fijo, lo cual desaprovechaba el espacio significativamente, ya que en las pistas exteriores pueden almacenarse más sectores que en las interiores. Así, apareció la tecnología ZBR (grabación de bits por zonas) que aumenta el número de sectores en las pistas exteriores, y usa más eficientemente el disco duro.
El primer sistema de direccionamiento que se usó fue el CHS (cilindro-cabeza-sector), ya que con estos tres valores se puede situar un dato cualquiera del disco. Más adelante se creó otro sistema más sencillo: LBA (direccionamiento lógico de bloques), que consiste en dividir el disco entero en sectores y asignar a cada uno un único número. Este es el que actualmente se usa180px-Disk-structure.svg250px-Cilindro_Cabeza_Sector.svg

Tipos de Conexión:

Si hablamos de disco rígido podemos citar a los distintos tipos de conexión que poseen los mismos con la placa madre, es decir pueden ser SATA, IDE o SCSI.
IDE: Integrated Device Electronics (“Dispositivo con electrónica integrada”) o ATA (Advanced Technology Attachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) Hasta hace poco, el estándar principal por su versatilidad y relación calidad/precio.
SCSI: Son discos duros de gran capacidad de almacenamiento . Se presentan bajo tres especificaciones: SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 mseg y su velocidad de transmisión secuencial de información puede alcanzar teóricamente los 5 Mbps en los discos SCSI Estándares, los 10 Mbps en los discos SCSI Rápidos y los 20 Mbps en los discos SCSI Anchos-Rápidos (SCSI-2).
Un controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita (daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador, lo que los vuelve más rápidos.
SATA (Serial ATA): Nuevo estándar de conexión que utiliza un bus serie para la transmisión de datos. Notablemente más rápido y eficiente que IDE. En la actualidad hay dos versiones, SATA 1 de hasta 1,5 Gigabits por segundo (150 MB/s) y SATA 2 de hasta 3,0 Gb/s (300 MB/s) de velocidad de transferencia

Posted in General, programas, Tecnologias de informacion | Etiquetado: | Leave a Comment »