miércoles, junio 29

Manual de seguridad para Facebook

0 comentarios

Ok, en este post nos saldremos un poco de la línea técnica para abordar algo más llano y general; La privacidad en Facebook. Tengo meses tratando de encontrar el trigger que me lleve a escribir lo que seria una sugerencia a todos mis contactos cercanos de Facebook. Y es que la seguridad que tienes puede que no valga de nada si la de tus amigos es nula, pues ellos, se tomaran fotos contigo, te van a “tagear”, te tienen de contactos y no sabes ni controlas esos accesos.
Son muchas las ventajas que puedes tener de estar conectado entre muchas la comunicación con los contactos, cerrar distancias, pero como te imaginaras, se pueden dar ciertas condiciones. Pongamos un ejemplo sencillo: Eres el usuario común que tiene… 250 contactos. Te vas de fin de semana, tomas un hotel con un grupo de amigos, entre ellos va la amiga que recién termino con el novio pero se fue al hotel con otro amigo, tienen todos fotos de playa,  fotos en el bar del hotel con los tragos y un check in del pub de moda en la zona con fecha del domingo a las 11:30PM. Todo muy bien! eso es vivir la vida, trabajas mucho y te lo mereces. Pero que pasa en la realidad en Facebook?
Tienes 250 contactos que vieron el fin de semana, eso si tu configuración de seguridad para todo es acceso a Solo Amigos, siendo así solamente 250 personas vieron tu perfil. Si en todo están “tageados” 3 amigos tuyos que también son promedio con 250 “amigos”, tu fin de semana será visto por 1000 personas. Peeeero, resulta que casi el 955 de todo mundo tiene en su configuración permiso a “Amigos de Amigos” lo que lleva a que este fin de semana será visto por 250 contactos con 250 contactos cada uno, en promedio son 62,500 personas con permiso legitimo a ver tu fin de semana, sin contar las de tus 3 amigos con igual configuración, pero ya eso son muchos números, a esta altura entiendes el punto. De ahí que, el ex de la amiga que fue con el amigo lo vio en tu muro el fin de semana y armo un lío, el depravado que tiene de contacto la tonta hermana de tu amigo (que le da aceptar a todo mundo) vio las fotos de todos en traje de baño, tu jefe que es amigo de un amigo vio el check in del bar del domingo y sabrás que vendrá temprano a verte el color de tus ojos el lunes, un clásico son las vecinas de la abuela que son de la comunidad de la iglesia (pero son viejas 2.0) vieron las fotos en el bar con ropita moderna y los tragos, por lo que proponen un rosario en nombre de los nietos de tu abuela (o sea tu), la gerente de RH de tu trabajo te vio en esa foto con ojos pequeños abrazando la botella de tu marca favorita de vodka, no te afecta, pero hey ella tenía buena impresión de ti y esa promoción... Además la gerente de RH del trabajo en que te estás entrevistando da la casualidad que es amigo de un amigo (dentro de los 62,500 que le has dado permiso) y te elimino de los candidatos porque parecías alguien que fiesteaba mucho. 
Ah del fin de semana 5 personas que acabas de conocer en el hotel te mandan request para que seas su “amigo” no recuerdas mucho de ellos y te ves en el dilema de si los aceptas y das permiso a todo o si lo rechazas y los ofendes. Y todo eso pasa antes de que sean las 9AM del lunes…Si esto no te cuadra, mejor entra a otra página de internet (quizás tu facebook), si te suenan estos casos pues no te alarmes, sigue leyendo que aquí te pongo un pequeño manual para mejorar estas cosas, pues en la vida real no solo tenemos amigos, tenemos muchas LISTAS de personas con distinto tipos de acceso, espero les sirva.

Y si ya lo tenias, o sabias FELICIDADES!!,
si no te interesa, Buen....      
Si te sirvió... un gusto ayudarte. Nos vemos en la próxima (si estamos en la misma lista)

Chao aquí el manual



Fin Post...



jueves, abril 21

201X El año del Data Center

2 comentarios

Llega el fin del año 2010, para el mismo no me dio tiempo de realizar un “IT Not Top 10 of the Year” tal como realice en el año 2009, además ya no sería tan original, en su lugar quisiera tratar un tema más importante en el 2010 en términos profesionales, este no es otro que Data Center. El tema tiene cierta valía al coincidir con varias publicaciones como la tendencia de la industria más importante tanto para el ya finalizado 2010, como para el iniciado 2011.
Particularmente enfoco este concepto al entorno Cloud Computing, que consiste en la venta de servicios de Data Center a empresas que su vez lo utilizan para brindar sus servicios a usuarios internos y externos, dígase, procesos de ventas como Amazon, bancos, ERP, CRM, entre otros servicios de empresas tanto para su producción diaria, su sistema de contingencia o Businesss Continuity Management (BCM). Algunas empresas brindan una plataforma robusta, segura y flexible para estas necesidades, en mi caso tengo la oportunidad de participar en una oferta basada en plataforma IBM con estos fines.
El Concepto contempla que las empresas minimicen su inversión en Hardware y más bien renten un servicio en modalidad Hosting. Esto junto con la tendencia a virtualización provocada por la falta de liquidez asociada con la pasada recesión económica impulso mucho la tendencia de ambas, en el 2010 las empresas vieron gran parte de este beneficio inmediato y replantearon sus estrategias entorno al uso de los recursos IT, inversión vs operación.
Les comparto resumen sobre el tema en modalidad PPT Cloud (adecuado para la ocasión), iniciando con estadísticas de Gardner (Como no debe faltar en resúmenes de año), seguido de mi resumen y publicación del tema sobre el porqué de este fenómeno. Al final el “garabato” de aeropuerto con el que empezó este Post en Nov2010.
Capture

Fin Post...



jueves, octubre 7

Navegadores web procesando Datos. La llegada de Terminator?

1 comentarios

La inquietud principal que motivo este post es sencilla.. Estamos en el preámbulo de que los Browsers actuales se conviertan en los próximos grandes procesadores de información? Identificada la inquietud como sencilla, ahora veamos qué tan complicada es su respuesta..

clip_image002

clip_image003

Procesamiento Distribuido

Una de las primeras cosas que se encuentran en una busqueda sencilla sobre este tema son estándares que en su descripción te ponen a pensar en la posibilidad de una súper computadora ejecutándose en internet con procesamiento casi imposible de dimensionar tomando recursos de cada computadora conectada a la red y a su red, algo parecido a la computadora Skynet que nos presentan en la saga Terminator, pero sin los modelos que rezan “hasta la vista babe”.

La realidad sería algo mucho más sobrio para bien de la humanidad, por lo pronto estándares como el RPC (Remote Procedure call) se presenta como un método de procesamiento distribuido que permite invocar funciones y procedimientos escritos cada uno pudiendo estar en lenguajes de programación diferentes, que serían ejecutados de manera remota desde una maquina diferente como un solo proceso, bajo la modalidad de presentación XML, es decir WEB.

Imagínense pues una aplicación con funciones creadas en distintos lugares, en distintos lenguajes de programación, siendo ejecutadas de manera remota, con una sola, en cualquier plataforma y soporte tipo SOAP…

Es más o menos lo que conocemos hoy en dia no? Pero lo hacemos totalmente WEB? Que tienen los navegadores actuales para realizar esto?

Fuera INTEL-AMD, entra JavaScript??

En las presentaciones de cada uno de los principales navegadores a la comunidad de programadores, por parte de las empresas que los crean, siempre el foco principal lo obtiene el motor JavaScript, según muchos foros hay acuerdo en que los presentan con gráficos y estadísticas dignas de una presentación para productos de INTEL o AMD. A continuación una recopilación principales navegadores y sus ultimos motores presentados:

image

Evolución de los navegadores

clip_image004Los navegadores hace unos años prácticamente descargaban HTML (texto e imágenes) y nos lo presentaban en nuestras pantallas, luego se inició el proceso de incluirles plugings que eran capacidades de otras aplicaciones para que estos puedan realizar tareas más dinámicas. Ya en el día de hoy, nos presentan un poderoso conjunto de aplicaciones que nos permiten arrastrar elementos, disfrutar de aplicaciones de correo electrónico del tipo Gmail que nada le envidia a un Mail Client que corre localmente, jugar juegos en el navegador, ver videos, Streaming y es solo e inicio.

Hoy en día los Navegadores están integrados como pocas aplicaciones a la red y lo hacen ejecutando aplicaciones de manera estandarizada sin importar el sistema operativo. Solo con las diferencias de velocidad proporcionadas por sus respectivos motores de Java.

Visión Google

Google por el empuje que dio con sus conceptos presentados y materializados en el reléase de Chrome tiene una parte protagonista en esta tendencia. Entre las cosas originales y destacadas que presento Google están:

“Una pestaña, un Proceso

Cada pestaña se ejecuta sobre un proceso por lo que la caída de una de ellas no será motivo para cortar el proceso del navegador y reiniciarlo. Además gráficamente podemos movilizar una pestaña transportándola a otra instancia del navegador Chrome y ubicando su proceso en otro conjunto de procesos. O dejarla en el aire creando su propio grupo de procesos.

Administrador de Tareas:

Como consecuencia de la presencia de procesos Google Chrome provee de un Task Manager que permite monitorear los niveles de descarga, medidas de consumo de CPU y Memoria RAM. Este administrador también nos permite cortar un proceso. Nuestra principal motivación para emplear este aniquilador de procesos será un sitio web del que no obtenemos respuesta o que sobrecarga al sistema.”

clip_image005

Adicional a esto todos conocemos el paso presentado por Google de su navegador corriendo en una maquina sin sistema operativo pudiendo hoy en dia hacer casi todas las operaciones, siendo esta una modalidad de mucho potencial para temas como:

  • · Cloud Computing
  • · Terminales “brutas”de trabajo (ThinClient)
  • · Virtualización
  • · SOA
  • · Entre otros.

Donde estamos ahora

Recientemente tenemos un movimiento de las cuotas de mercados, próximos releases, y tendencias sobre nuevas funciones - avances.

Market Share actual de Web Browsers

image

Conclusión

Los navegadores con su motor propio de JavaScript pretenden funcionar con un principio similar al de máquinas virtuales, permitiéndoles hacer las veces de CPU y llevar las posibilidades a un próximo nivel, ya IE9 promete aceleración grafica integrándose muy de lleno con la tarjeta de video del equipo, lo que lleva la definición visual a otro nivel. La evolución de estos, indiscutiblemente nos llevaría a una convergencia de computación entre dispositivos de distintas plataformas, llevar la colaboración masiva, llevarla a otro nivel.

“Hasta la Vista…

Fin Post...



viernes, septiembre 3

Ser Tech Cool cuesta mucho…

0 comentarios

imageEn estos días de ferias sobre equipos móviles, conferencias de empresas y workshops tenemos un verdadero bombardeo de lanzamientos, lógicos de la época en donde las empresas de consumo masivo intentan posicionarse en miras al último tercio del año, temporada de compras marcada por el Black Friday y terminando con el fin de año. Celulares, consolas de entretenimiento, tv por internet, notebooks, tv inteligentes serán impuestos como temas obligatorios a medida que pase el tiempo.
El punto en cuestión es: Como encontramos el equilibrio entre lo mas cool y lo que necesito... Les comento sobre mi última compra; los hecho son que para esta época me vi sin celular al morir mi iphone2g de 5 años de uso, antes de este equipo mi móvil era un Sony Ericksson W810. Cada uno fue adquirido más o menos en época de apogeo, pero se pasó mucho más de la mitad del tiempo en que lo use, obsoleto.
Eso me deja con el siguiente comportamiento en función del tiempo.
clip_image001
Reconoces el escenario verdad..? En el periodo de la casilla dos en lo adelante interviene mucho el que podamos encontrar este equilibrio, muchos me preguntan “porque si vas a comprar un iphone nuevo no compras el 4?”, la respuesta es, que no lo necesito; aunque esto a simple vista sea “aberración al evangelio según San Esteban Jobs” (como leí en internet, me pareció buenísimo), lo cierto es que las diferencias que este puede tener contra el 3gs no son tan significativas como para pagarlo a más del doble. Posiblemente conozca mejor que la mitad de los usuarios de iphone 4 sus prestaciones, pero también la del modelo 3gs, y por más bonito y llamativo que considere tanto el equipo como al marketing que lo acompaña, las diferencias (usar facetime) no me impacta positivamente proporcional como impacta a mi presupuesto la opción de un modelo sobre el otro.
Por tanto viene la pregunta: Es necesario cambiar la TV 1080P que te hicieron comprar el año pasado por la 3D que te ofrecen ahora? Es necesario tener el ultimo netbook? O peor aun, vale la pena comprar el ultimo Smartphone para solo usar el telefono y Facebook (Sub-utilizar)?
Por esto, y sin necesidad de que se pueda interpretar que llegar al último cuadro del grafico sea mi recomendación. Si les puedo compartir que al momento de cambiar mi equipo, tv, consola de entretenimiento, laptop, o Smartphone verificare todas las especificaciones de mis opciones del mercado y optare por el equipo más moderno que mi bolsillo pueda pagar, eso en el momento en que mi equipo actual no satisfaga mis necesidades, no antes, no después, como profesionales del area no estamos obligados a ser "Tech Cool", sino a entender toda relación entre prestaciones, necesidades y productividad. Dicho esto, a destapar mi Iphone, que no es el 4.
clip_image002
Foto de mi Nuevo cel.

Fin Post...



miércoles, julio 28

Business Processes

0 comentarios

 

Definición, aporte actual, estructura

Business Processes Management (BPM) o Gestión de Procesos es un conjunto de acciones integrales, de flujos, procedimientos y procesos de gestión analítica, apoyada por la tecnología, que aborda todas las actividades de su empresa; es un enfoque de gestión centrado en la adaptación de todos los aspectos de una organización con los deseos y necesidades de los clientes. Al tratarse de un enfoque de gestión integral que promueve la eficacia y eficiencia empresarial actuando en favor de la innovación, podría ser descrito como un proceso de optimización.

Estructura tradicional

Se argumenta que BPM permite a las organizaciones ser más eficiente, más eficaz y más capaz de cambiar de un funcional centrado que es el enfoque tradicional de gestión jerárquica y obsoleto que plantea los departamentos de una organización como silos en su comunicación, desarrollo, operación y medición.

El enfoque orientado a procesos crea un corte transversal a esta estructura de sios viendo, midiendo y comunicando a la empresa por procesos, involucrando en estos, elementos multidisciplinarios de toda la organización.

Ejemplo:

Desde el punto de vista de un cliente, el mismo puede realizar una solicitud de préstamo para vehículos en un banco. Los procedimientos y manejos que procesan esta solicitud abarcan varios departamentos que en la estructura jerárquica tradicional son medidos por separado, y los problemas o choques que puedan existir en la definición de eficiencia que pueda tener cada uno hacen que procesos invisibles al cliente le afecten la calidad y garantía del servicio solicitado. Por ejemplo un departamento que se mida por volumen de solicitudes y alimente a otro que se mida por tiempo de trámite en cada solicitud.

Estructura BPM

150px-Business_Process_Management_Life-Cycle.svgEl enfoque que propone BPM es medir esas actividades propias de la cadena de valor de una organización para medirlas y diseñarlas en función a un proceso, para el caso ejemplo este proceso seria venta servicio prestamos vehiculares, con su diseño, modelado, ejecución, monitoreo y optimización en función de que flujo de actividades tienen que ocurrir cuando un cliente realiza la solicitud, así como en qué tiempo, y que entregable debe de recibir.

BPM + IT

Se podría decir que el mercado de BPM de lleno en el campo IT nace en el 2005 con la salida al mercado de los BPMS (Business Processes Management Systems) aunque solo tiene 5 años ya Gartner publico un estudio donde lo colocaba como una de las áreas de IT con mayor crecimiento entre 2007 y 2011 pasando de un mercado de 1Billon anual a 2.6 en ese periodo de tiempo.

http://www.gartner.com/it/page.jsp?id=502645

Un BPMS permite no solo diseñar la estructura de un proceso, al modelarse bajo sistema este crea el proceso en sí, al crear un flujograma que describa las actividades y su secuencia al mismo tiempo se crea el formulario electrónico, el repositorio y los controles que necesitara el sistema web-based para su funcionamiento. Simulación de procesos y arquitectura SOA son entregables de un sistema BPMS.

Esquema de una suite BPM completa

BPM_Workflow_Service_Pattern

Esto aporta en 4 aspectos básicos:

  • · Estrategias
  • · Governance (Administración y Control)
  • · Estructura Organizacional (Organization)
  • · Cultura organizacional

Gestion-de-procesos

Otros beneficios identificados:

  • Adquirir la habilidad para diseñar, simular y monitorear procesos de manera automática y sin la participación de usuarios técnicos.
  • Posibilidad de integrar la información dispersa del negocio en diferentes sistemas.
  • Visibilidad de los procesos de la empresa.
  • Mayor flexibilidad y agilidad para adaptación al cambio.
  • Reducir costos futuros de integración y mantenimiento al adquirir tecnología ya preparada para abordar el cambio.
  • Mejorar el conocimiento de las funciones y atribuciones de cada puesto de trabajo.

Fuente Value add

Importancia

  • · Necesidad de procesos repetitivos y predecibles
  • · Consolidación de los datos
  • · Necesidad de indicadores no financieros
  • · Alineación de los empleados con los objetivos corporativos

Principales Suites o Frameworks

  • · IBM Lombardi
  • · Oracle SOA Suite
  • · IBM BPM
  • · BEA AquaLogic BPMS
  • · BizAgi

Fin Post...



domingo, marzo 14

La desduplicación – Tendencia en Backup

0 comentarios

Tags:

  • Desduplicacion
  • Niveles
  • Tipos de políticas
  • Que hay que tomar en cuenta para implementar una solución de Backup hoy en día.

Hace unos años la duplicación, clonación, redundancia, centralización, fueron conceptos y palabras que repetidamente surgían en los papeles blancos, revistas, reportes y publicaciones propias al manejo de las plataformas tecnológicas, data centers, y IT Operations; desde hace un tiempo prudente a la fecha, viene surgiendo el concepto desduplicacion, de una manera directamente proporcional al avance que se ha tenido en los primeros conceptos referidos por lo que no es un concepto nuevo, pero sí de uso limitado.

La desduplicacion permite la eliminación de datos redundantes al sistema de Backup, lo que reduce costes de adquisición, almacenamiento, tiempo, y manejo. Actualmente todas las tecnologías, con uno u otro nombre se dividen en:

Desduplicación a nivel de bloque

CaptureLa desduplicación a nivel de bloque ofrece una eficiencia general de almacenamiento mucho mayor. Funciona buscando instancias de información redundante examinando fragmentos de datos de 4 KB de tamaño o mayores, y solo almacena una copia independientemente del número de copias que haya. Las copias se sustituyen por punteros que hacen referencia al bloque de datos original de una manera transparente para el usuario, quien sigue utilizando un archivo como si todos los bloques de datos que contiene fueran solo suyos.

Desduplicación a nivel de archivo

duplicacion2Desduplicación a nivel de archivo busca archivos que sean exactamente iguales y solo almacena una copia, poniendo punteros tal como Windows hace con los Shortcuts de archivos en lugar de las otras copias. Aunque la desduplicación de archivos es más eficiente que no realizar ninguna desduplicación, un cambio mínimo en el archivo dará como resultado que se almacene una copia adicional del mismo.

Con cualquiera de los dos niveles se puede llegar a un nivel de eficiencia entre 50y 90% adicional al sistema tradicional, por ejemplo uno de sus usuarios envía un reporte de Excel, cargado de gráficos, imágenes y ratios de resultados de mes, al poseer fotos el archivo de 7 megas es enviado a 11 personas de nivel directivo. Al momento de su sistema de Backup respaldar este solo mail se convertirá en 84 megas sin contar con ni un solo foward o replay with attachment que se realice. Multiplique esta actividad por instancias de datos duplicados por toda la organización y entenderá porque el crecimiento exponencial de la data, así como el porqué la desduplicacion ahorra tanto.

Aunque la desduplicación puede ahorrar enormes cantidades de espacio de disco, su concentración hace que un almacenamiento correcto tenga una importancia crítica. Si un bloque de datos encontrado en varios orígenes (como en el ejemplo anterior del archivo excel) se desduplica y luego se pierde, todas las copias de seguridad asociadas al mismo quedarán dañadas, ya que los datos de origen ya no existen. También se aplica a copias de seguridad completas de sistemas. Si se produce una catástrofe, un solo bloque de datos dañado correspondiente a una parte vital del sistema operativo Windows hará que todas las copias de seguridad queden inutilizables en caso de recuperación del sistema. Estudie el uso de una matriz RAID para almacenar datos de desduplicación para proporcionar un nivel de protección adicional.

Estilos política de Desduplicacion

Desduplicación en destino

La desduplicación en destino tiene lugar después de realizar la copia de seguridad del origen, cuando ya los datos están en la ubicación de almacenamiento de destino, normalmente un nodo de almacenamiento conectado (NAS). Su desventaja es el uso de un posible ancho de banda limitado especialmente para casos de backup en instalaciones remotas.

Desduplicación en origen

La desduplicación en origen (o del servidor) es la que se realiza en el servidor que contiene los datos y luego son enviados vía análisis de algoritmo de paquetes al servidor de almacenamiento. Su desventaja es el uso de ciclos de CPU en el servidor origen.

Capture1 

La elección entre la desduplicación en origen o en destino dependerá de cuál es la limitación (consumo general de proceso de CPU de cliente o consideraciones de ancho de banda) más importante para su organización. Una mala elección podría ocasionar en la eliminación total de un proyecto de desduplicacion por colapsos en la red, o respuesta nula de un servidor por sobre procesamiento.

Que hay que tener en cuenta para implementar una solución de Backup basada en Desduplicación

Hay muchas soluciones, con muchas nuevas alternativas para el respaldo de la información, un sistema a la vanguardia en equipos de alto desempeño entiendo que definitivamente tiene que contar con desduplicacion desde las estaciones de trabajo, maquinas virtuales y servidores. Permitiendo el manejo de imágenes a estos últimos actualizables, para permitir tener una imagen de archivos y sistema operativo de nuestros servidores actualizada de manera automática y remota. Las opciones son varias, pero partiendo de un equipo de alto desempeño se podría desglosar en orden descendente a partir de los siguientes tópicos.

La solución a implementar debería de cumplir con los siguientes requisitos:

  • - Permitir los dos niveles de Desduplicacion, a nivel de archivo y nivel de bloque.
  • - Permitir una desduplicacion tanto en origen como en destino.
  • - Poseer un algoritmo inteligente en despublicacion origen que consuma menos CPU que los primeros algoritmos de la desduplicacion de años atrás.
  • - Tener versiones Linux, Windows para servidores así como poder integras VIP Workstation.
  • - Tener capacidad de trabajar con maquinas virtuales.
  • - Copias de imágenes incrementales y automatizadas.
  • - Modulo Disaster recovery.
  • - Integración a sistema NAS.

Imagenes Acronis Website

Fin Post...



sábado, febrero 20

Procesadores Cuánticos – De Relatividad de Einstein a Ley de Moore

0 comentarios

Para ayudar recientemente en una tarea universitaria me toco explicarle a alguien el concepto de procesadores cuánticos de manera muy básica, por eso aunque es algo que ya muchos conocemos y hemos leído, se me ocurrió que era buena excusa para, para ver los últimos avances sobre el tema así como su posible implementación definitiva.

Para eso como es de costumbre primero hagamos un repaso sobre lo que es el concepto; iniciando con que los procesadores, ese elemento electrónico que se encarga de interpretar - procesar los datos de los programas con el hardware y que es el negocio fundamental de Intel y AMD, es la parte quizás más importante de una computadora. Es un sistema de circuitos integrados los cuales sustituyeron en el siglo XX a los tubos de vacío y válvulas de las primeras computadoras, hoy en día son el corazón de un teléfono celular o un horno microondas. Su velocidad viene dada por el numero de transistores (generalmente de silicio) que se podían colocar por pulgada, y el trabajo se resumió a hacer de estos cada vez más pequeños para elevar el número de MHz de los procesadores.

Ley de Moore

300px-Lei_de_moore_2006.svg

La Ley de Moore expresa que aproximadamente cada 18 meses se duplica el número de transistores en un circuito integrado.1 Se trata de una ley empírica, formulada por el co-fundador de Intel, Gordon E. Moore el 19 de abril de 1965, cuyo cumplimiento se ha podido constatar hasta hoy. Más tarde, en 1975, modificó su propia ley al afirmar que el ritmo bajaría, y que la capacidad de integración se duplicaría aproximadamente cada 24 meses. Sin embargo, el propio Moore ha puesto fecha de caducidad a su ley: "Mi ley dejará de cumplirse dentro de 10 o 15 años -desde 2007-".6 Según aseguró durante la conferencia en la que hizo su predicción afirmó, no obstante, que una nueva tecnología vendrá a suplir a la actual.

Teoría de la relatividad de Einstein

El inicio de los procesadores va en orden cronológico con el inicio de la mecanica cuántica producto del aporte de muchísima gente y donde resaltamos el aporte de la teoría de la relatividad en 1905 (en donde está la famosa e=mc^2) de Albert Einstein que entre otras cosas trabajo en lo que seria el inicio de la mecanica cuántica.

Procesadores Cuánticos

La idea surge en 1981, cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel cuántico. En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits.

250px-Dualite

El número de qubits indica la cantidad de bits que pueden estar en superposición. Con los bits convencionales, si teníamos un registro de tres bits, había ocho valores posibles y el registro sólo podía tomar uno de esos valores. En cambio, si tenemos un vector de tres qubits, la partícula puede tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así un vector de tres qubits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el número de operaciones es exponencial con respecto al número de qubits. Para hacerse una idea del gran avance, un computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops (millones de millones de operaciones en coma flotante por segundo) cuando actualmente las computadoras trabajan en el orden de gigaflops (miles de millones de operaciones).

Implicaciones

La consecuencia directa de la Ley de Moore es que los precios bajan al mismo tiempo que las prestaciones suben: la computadora que hoy vale 3000 dólares costará la mitad al año siguiente y estará obsoleta en dos años. En 26 años el número de transistores en un chip se ha incrementado 3200 veces.

Al tomar como referencia para una nueva ley sobre el avance de procesamiento que sustituya la ley de Moore dentro de los procesadores; adaptándola con el salto exponencial de los procesadores cuánticos, los costos, las prestaciones y los tamaños que tendrán permitiendo un mayor campo de aplicación quizás nano-procesadores aplicables a dispositivos y computadoras microscópicas. Las implicaciones de este campo podrían representar todo un nuevo salto tecnológico de repercusiones incalculables.

Ultimas Actualizaciones (Fuente Externa)

Para actualizarnos sobre el tema les comparto un resumen encontrado en internet donde se puede apreciar los últimos avances en una vista de tipo cronológico que nos permite saber actualmente como se desarrolla el avance de los procesadores cuánticos y los distintos tipos de modelos que se disputan el estándar producto del correcto manejo de la probabilidad de posición de los electrones y el cálculo en tiempo del estas 0 y 1 de los qubits.

2000 - Continúan los progresos

De nuevo IBM, dirigido por Isaac Chuang (Figura 4.1), creó un computador cuántico de 5-Qbit capaz de ejecutar un algoritmo de búsqueda de orden, que forma parte del Algoritmo de Shor. Este algoritmo se ejecutaba en un simple paso cuando en un computador tradicional requeriría de numerosas iteraciones. Ese mismo año, científicos de Los Álamos National Laboratory (EE.UU) anunciaron el desarrollo de un computador cuántico de 7-Qbit. Utilizando un resonador magnético nuclear se consiguen aplicar pulsos electromagnéticos y permite emular la codificación en bits de los computadores tradicionales.

2001 - El algoritmo de Shor ejecutado

images-1IBM y la Universidad de Stanford, consiguen ejecutar por primera vez el algoritmo de Shor en el primer computador cuántico de 7-Qbit desarrollado en Los Álamos. En el experimento se calcularon los factores primos de 15, dando el resultado correcto de 3 y 5 utilizando para ello 1018 moléculas, cada una de ellas con 7 átomos.

2005 - El primer Qbyte

El Instituto de “Quantum Optics and Quantum Information” en la universidad de Innsbruck (Austria) anunció que sus científicos habían creado el primer Qbyte, una serie de 8 Qbits utilizando trampas de iones.

2006 - Mejoras en el control del cuanto

Científicos en Waterloo y Massachusetts diseñan métodos para mejorar el control del cuanto y consiguen desarrollar un sistema de 12-Qbits. El control del cuanto se hace cada vez más complejo a medida que aumenta el número de Qbits empleados por los computadores.

2007 - D-Wave

La compañía canadiense D-Wave presenta públicamente su primer computador cuántico de 16 Qbit. Entre las aplicaciones que presenta para su sistema, se encuentra un sistema gestor de bases de datos y un algoritmo que soluciona Sudokus. Todo ello a través de una interfaz gráfica similar a la utilizada en los computadores actuales, tratándose del primer acercamiento de la computación cuántica al mundo comercial y no tan científico.

2007 - Bus cuántico

En septiembre de 2007, dos equipos de investigación estadounidenses, el National Institute of Standards (NIST) de Boulder y la Universidad de Yale en New Haven consiguieron unir componentes cuánticos a través de superconductores. De este modo aparece el primer bus cuántico, y este dispositivo además puede ser utilizado como memoria cuántica, reteniendo la información cuántica durante un corto espacio de tiempo antes de ser transferido al siguiente dispositivo.

2008 - Almacenamiento

Según la Fundación Nacional de Ciencias (NSF) de los EEUU, un equipo de científicos consiguió almacenar por primera vez un Qubit (el equivalente a un "bit" del "mundo clásico", pero en el "mundo cuántico") en el interior del núcleo de un átomo de fósforo, y pudieron hacer que la información permaneciera intacta durante 1.75 segundos. Este periodo puede ser expansible mediante métodos de corrección de errores, por lo que es un gran avance en el almacenamiento de información.

2009 - Procesador cuántico de estado sólido

imagesEl equipo de investigadores estadounidense dirigido por el profesor Robert Schoelkopf, de la universidad de Yale, que ya en 2007 había desarrollado el Bus cuántico, crea ahora el primer procesador cuántico de estado sólido, mecanismo que se asemeja y funciona de forma similar a un microprocesador convencional, aunque con la capacidad de realizar sólo unas pocas tareas muy simples, como operaciones aritméticas o búsquedas de datos. Para la comunicación en el dispositivo, esta se realiza mediante fotones que se desplazan sobre el bus cuántico, circuito electrónico que almacena y mide fotones de microondas, aumentando el tamaño de un átomo artificialmente.

Fin Post...