La llamativa identidad de la Copa América Chile 2015

Adentrándonos en el trabajo de diseño visual de este evento

Storm Thorgerson. El diseño sugestivo en la industria musical

Autor de increibles portadas de discos de bandas como Pink Floyd

Consideraciones de diseño gráfico en la creacion de un aula virtual.

Tips a tener en cuenta en el montaje de recursos educativos digitales

10 comparativas Vs Moodle

Alternativas LMS a tener presente

Diseño rígido vs diseño flexible

Importancia de la adaptabilidad de un sitio web a diferentes dispositivos

Autodesk rediseña su identidad

Con un cambio radical de su logotipo y nueva tipografía

jueves, 25 de abril de 2013

Modelos de negocio del Mundo del Software

¿Qué es Software Libre? (Open source)

Es un programa o secuencia de instrucciones usada por un dispositivo de procesamiento digital de datos para llevar a cabo una tarea específica o resolver un problema determinado, sobre el cual su dueño renuncia a la posibilidad de obtener utilidades por las licencias, patentes, o cualquier forma que adopte su derecho de propiedad sobre él (o sea, el software libre puede estar licenciado, o protegido por una patente autoral), por lo que puede utilizarse o transferirse sin pago alguno al licenciante, o a su creador.

Es la denominación del software que respeta la libertad de los usuarios sobre su producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado, estudiado, modificado y redistribuido libremente. Según la Free Software Fundación, el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, modificar el software y distribuirlo modificado.

El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar software libre a "software gratuito" (denominado usualmente freeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente ("software comercial"). Análogamente, el "software gratis" o "gratuito" incluye en ocasiones el código fuente; no obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa.

1. CARACTERISTICAS DEL SOFTWARE LIBRE:

Se encuentra disponible el código fuente del software, por lo que puede modificarse el software sin ningún límite.
  • Libertad de estudiarlo y adaptarlo.
  • Libertad de distribuir copias.
  • Libertad de mejora y publicación de cambios.
  • Libertad de usar el programa con cualquier propósito.

2. VENTAJAS DEL SOFTWARE LIBRE:

  • El usuario no comete delito por tenerlo o usarlo.
  • Amplísima gama y variedad de herramientas libres.
  • Actualizaciones periódicas con lata frecuencia.
  • Altísimo nivel de estabilidad comprobada.
  • Protege y defiende la SOBERANIA.
  • Tiene una gran comunidad de apoyo y soporte.
  • Diversidad de soluciones informáticas.
  • Costo.
  • Flexibilidad de las soluciones informáticas.

3. DESVENTAJAS DEL SOFTWARE LIBRE:

  • El hardware debe ser de calidad y estándares abiertos.
  • Carece de una estructura ampliada mercadeo (marketing).
  • Algunas aplicaciones específicas no están en el mercado.
  • Requiere profesionales debidamente calificados para la administración del sistema (es un sistema administrado).
  • Dificultad en el intercambio de archivos.
  • Algunas aplicaciones (bajo Linux) pueden llegar a ser algo complicadas de instalar.
  • Inexistencia de garantía por parte del autor.
  • Interfaces gráficas menos amigables.
  • Poca estabilidad y flexibilidad en el campo de multimedia y juegos.
  • Menor compatibilidad con el hardware.

Software Propietario

Es cualquier programa informático en el que el usuario tiene limitaciones para usarlo, modificarlo o redistribuirlo (esto último con o sin modificaciones). (También llamado código cerrado o software no libre, privado o privativo)

Para la Fundación para el Software Libre (FSF) este concepto se aplica a cualquier software que no es libre o que sólo lo es parcialmente ( semilibre ), sea porque su uso, redistribución o modificación está prohibida, o requiere permiso expreso del titular del software.

4. CARACTERISTICAS DEL SOFTWARE PROPIETARIO:

  • Este software no te pertenece no puedes hacerle ningún tipo de modificación al código fuente.
  • No puedes distribuirlo sin el permiso del propietario.
  • El usuario debe realizar cursos para el manejo del sistema como tal debido a su alta capacidad de uso.
  • Este posee accesos para que el usuario implemente otro tipo de sistema en el.
  • Cualquier ayuda en cuanto a los antivirus.

5. VENTAJAS DEL SOFTWARE PROPIETARIO:

  • Propiedad y decisión de uso del software por parte de la empresa.
  • Soporte para todo tipo de hardware.
  • Mejor acabado de la mayoría de aplicaciones.
  • Las aplicaciones número uno son propietarias.
  • Menor necesidad de técnicos especializados.
  • Mayor mercado laboral actual.
  • Mejor protección de las obras con copyright.
  • Unificación de productos.
  • Facilidad de adquisición (puede venir preinstalado con la compra del PC, o encontrarlo fácilmente en las tiendas).
  • Existencia de programas diseñados específicamente para desarrollar una tarea.
  • Las empresas que desarrollan este tipo de software son por lo general grandes y pueden dedicar muchos recursos, sobretodo económicos, en el desarrollo e investigación.
  • Interfaces gráficas mejor diseñadas.
  • Más compatibilidad en el terreno de multimedia y juegos.
  • Mayor compatibilidad con el hardware.

6. DESVENTAJAS DEL SOFTWARE PROPIETARIO:

  • No existen aplicaciones para todas las plataformas (Windows y Mac OS).
  • Imposibilidad de copia.
  • Imposibilidad de modifación.
  • Restricciones en el uso (marcadas por la licencia).
  • Imposibilidad de redistribución.
  • Por lo general suelen ser menos seguras.
  • El coste de las aplicaciones es mayor.
  • El soporte de la aplicación es exclusivo del propietario.
  • El usuario que adquiere software propietario depende al 100% de la empresa propietaria.

El Paradigma SaaS (Propietario en Línea)

El término SaaS se asocia generalmente como una alternativa altamente eficiente para que las organizaciones obtengan las mismas ventajas del software comercialmente licenciado, funcionado sin la complejidad asociada y el alto costo inicial relacionado con el modelo tradicional. Muchos tipos de software son ideales para ser ofrecidos bajo el modelo de SaaS, especialmente en situaciones donde los clientes tienden a tener poco interés o capacidad de implementación, pero tienen necesidades sustanciales de uso de la aplicación. Soluciones tales como: CRM, videoconferencias, recursos humanos, contabilidad o correo electrónico, son algunas de las áreas que han demostrado rápidamente el éxito del modelo SaaS. La diferencia principal entre SaaS y otros servicios entregados a través de Internet es que las soluciones SaaS son desarrolladas específicamente de manera nativa para sacar provecho de tecnologías Web, como es el caso del browser o navegador.

No todo se considera SaaS

Es importante entender que no todos los programas que se utilicen en la nube bajo un servico (pagado o no) sean SaaS. Existen diferentes tipos para diferentes necesidades:

Infrastructure as a Service (IaaS)- Permite manejar conexiones entre servidores a bajo nivel Como GoGrid entre otros

Platform as a Service (PaaS) Sistemas en tiempo real que presentan una plataforma de computacion actuando como huesped al sistema de aplicacion, programando código o aplicaciones, entre estos tenemos a SaaSGrid and Google AppEngine.

Software as a Service Software especializado cuyo manejo se realiza sobre Internet, para usuarios que necesiten usar programas a la medida y pagar el servicio de uso de ellos.

Ventajas

  • Pago por uso. Pago mensual de una cantidad fija por empleado, que incluye todos los conceptos relacionados con el software (licencia de uso, hosting, soporte y mantenimiento).
  • Reducción de costes. Tanto al inicio del Servicio como para el mantenimiento recurrente. No hay licencia inicial ni cantidades anuales de soporte.
  • Acceso a la información. Desde cualquier lugar y en cualquier momento, incluso desde aplicativos mobiles

Desventajas

  • Ataque a los servidores: Donde se encuentra alojada la información (Como en le caso de ataque a los Servidores de Play Station).
  • Manipulacion de la informacion: Como el usuario no tiene acceso a sus contenidos puede perder su privacidad de informacion e inclusive ser alterada la misma.
  • Acceso Offline Algunas aplicaciones SaaS solo permiten la conexion online de los datos, si se cae la infraestructura se cae todo.

Lo duro de los discos

http://3.bp.blogspot.com/-17E3GGwEMY0/ToosTVMI8_I/AAAAAAAABJw/gTjOO1zp_pE/s000/2.jpg


Los SSDs son un gran invento, reemplazan a uno de los componentes más frágiles de los computadores modernos — los discos duros — por tecnologia, que como su nombre lo dice, — Solid State Drive o Unidad de Estado Sólido — no posee piezas móviles. Esto le entrega un sinnúmero de ventajas comparativas como tolerancia a los golpes, menor consumo de energía y menor peso, entre otros.
Pero lo más importante es que hace a los componentes de almacenamiento entrar en el mundo de la Ley de Moore. Recordemos que los discos duros no son más que un disco rígido, el cual es leído por una aguja. Pasar a la tecnología SSD es como pasar del disco de vinilo al reproductor de MP3, o del tubo de vació al de silicio, un salto que el mundo del almacenamiento no había visto jamas, hasta ahora.
Veremos todos los años SSDs más rápidos, más económicos y de mayor capacidad, todo gracias a la mejora en los procesos productivos y a la miniaturización de los semiconductores. Basta con comparar la evolución de los chips de silicio versus la evolución de la tecnología de discos duros, para darse cuenta de esto.


Sin embargo, hoy, en el presente, los dispositivos de almacenamiento sólido son bastante más caros que los discos duros, cuando comparamos su precio con su capacidad de almacenamiento. Pero gracias a la Ley de Moore, solo sería cosa de tiempo para que ambas tecnologías cuesten lo mismo y veamos a los actuales discos duros desaparecer.

Cueste lo que cueste

La clave de esto esta en que los chips usados en los discos SSD logren una densidad — capacidad — que sea comparable a aquella que vemos en los discos duros, y luego reducir su precio. Porque la estructura de costos de un disco duro y de un SSD es completamente distinta. Mientras el costo de fabricación de un disco duro de 500 GB es marginalmente mayor al de uno de 80 GB — ya que gran parte del costo se va en el PCB, motor y aguja, mientras que un plato más denso que otro cuesta practicamente lo mismo — el costo de manufactura de un SSD de 80 GB es prácticamente la mitad que el de uno de 160 GB, ya que el costo inicial del PCB es marginal, sin embargo los chips, cuya suma nos da la capacidad finalmente, son el costo preponderante en estos componentes, haciendo que su estructura de costos sea lineal a su capacidad.
Las cifras y precios son solo a modo de ejemplo
Las cifras y precios son solo a modo de ejemplo
Esto quiere decir que si queremos ver SSDs al mismo precio de los discos duros, no solo en capacidad pequeñas — como los ya obsoletos discos duros de 80 GB — sino a lo largo de toda la linea de productos, solo basta esperar.

No todos somos iguales

No todos los discos duros son iguales y existe un sin fin de escenarios para cada uno de ellos. Por una parte, nos encontramos con los discos duros más pequeños, aquellos 'juguetes' de 1,8″ con capacidades de hasta 160 GB. Los vemos dentro de iPods y de sub-notebooks de generación pasada. En este segmento, el reemplazo no solo es fácil, sino que me atrevería a decir que ya se puede dar por terminado.
Los interiores de un disco Toshiba de 1,8"Por otro lado nos encontramos con los discos duros de computadores portátiles de tamaño completo, los que miden 2,5″. Estos discos, que llegan a capacidades de hasta 500 GB, son cada vez más económicos. Sin embargo, difícilmente serán más rápidos y si bien podrán tener mayores capacidades, su tamaño lo hace algo complejo para escalar con la velocidad de los SSD. Este es el disco duro que tiene tu computador portátil, y si te conformas con 128 GB o menos, hoy por hoy un SSD no debiese de costar mucho. Ahora, si realmente valoras una gran capacidad, por sobre las ventajas que te entrega un SSD, tendrás que esperar al menos un año para que sean asequibles.
Como ven, en el mundo portátil el SSD entrará rápido y fuerte y no nos extrañaría que para el 2012 ya prácticamente todos los computadores portátiles sean vendidos con esta tecnologia. Pero cuando hablamos de computadores de escritorio y servidores el asunto se pone mucho más complejo.
Los computadores de escritorio tienen discos duros de 3,5″. Estos discos duros llegan a capacidades de 2 TB o 2048 GB, sin mayores problemas y a precios relativamente asequibles. Un SSD de esta capacidad, costaría 15 veces más que un disco duro. Hablamos de que tu dispositivo de almacenamiento no solo se transformaría en el componente más caro de tu computador, sino más caro que tu computador completo con un disco convencional.
Ahora, ¿que pasa en el mundo de los servidores? Dependiendo del uso, veremos una entrada mayor o menor en esta arena. Un servidor que maneja una base de datos mediana, no necesita mucha capacidad, mas si redundancia y velocidad. Un servidor de archivos — por ejemplo los servidores que almacenan elementos estáticos — no necesitan de gran velocidad, pero si capacidades groseras.

¿Entonces?

Soy un convencido — y creo no ser el único — que los discos duros más temprano que tarde, serán historia. Sera un proceso fluctuante, dependiendo del segmento que aborde, pero sucederá. Si bien el disco duro lleva una ventaja de 53 años, su aceleración en cuanto a innovación es lineal, mientras que la tecnologia SSD acelera exponencialmente, conducida por Moore y su ley.
En algunos segmentos la tarea ya esta lograda, en otros, será más lento, pero creo que pronto llegará el día en que nos olvidaremos de los chirridos de los discos duros y disfrutaremos del silencio, sin importar si buscamos redundancia, velocidad y gran capacidad de almacenamiento. 

Así funcionan los discos duros y sus ingeniosos mecanismos

(En inglés)

miércoles, 24 de abril de 2013

Consideraciones de diseño gráfico en la creacion de un aula virtual.


El contenido documental de un aula virtual es muy importante, pero sin embargo su apariencia visual también lo es. Crear cursos e-learning atractivos parece ser la clave para involucrar a los estudiantes desde un inicio. Si usted tiene un contenido excepcional sobre un tema, pero el curso no se ve bien estéticamente, es posible que el contenido no sea bien valorado por los participantes. Usted no necesariamente es un diseñador gráfico, y no siempre podrá crear imágenes convincentes y estéticamente adecuadas  para cada curso elearning que haga. Sin embargo, lo que puede hacer es asegurarse de no cometer errores evidentes en la creación de contenido visual al revisar su curso doblemente.

Como dije puede que usted no sea experto en diseño gráfico, pero sabe cuando algo se ve bien o no. No tiene que ser un artista para emplear los principios de diseño tampoco, solamente trate de mantener lo sencillo y ¡no tenga miedo de atreverse!

Pero, ¿cómo asegurarse de que sus cursos se ven bien? Para crear cursos e-learning que realmente capten la atención del alumno, es necesario que se haga las siguientes preguntas:

1) ¿El diseño de mi curso es visualmente agradable?

¿Es mi curso e-learning visualmente interesante? El mejor contenido no podría tener la oportunidad de comunicar el mensaje deseado si el texto no se muestra de una manera visualmente agradable. Se necesita ser cuidadoso en el diseño, al decidir sobre los colores y la disposición de los elementos. Fragmente el texto mediante el uso de encabezados, listas e imágenes. Un buen diseño hace que el curso sea más intuitivo, permitiendo hacer del contenido una tarea de aprendizaje fácilmente digerible y aumntando el compromiso del participante.

2) ¿Los colores que estoy usando distraen?

¿Está utilizando los colores apropiados? ¿Son agradables? ¿Los colores se ven bien juntos y se adaptan al contexto del curso? no necesita ser un experto en color para saber lo que se ve bien. El contraste de colores puede ser una gran distracción cuando los estudiantes están tratando de avanzar en el curso, recuerde que el brillo de la pantalla produce fatiga visual. Tenga cuidado de usar en execeso los rojos, negros y amarillos. No sólo son una distracción, sino que también tensan los ojos de los estudiantes. Los colores neutros como los azules, marrones y verdes en tonos suaves son más recoemndados.

3) ¿Coinciden las imágenes?

Esto sucede mucho más de lo que puede pensar y por muchas razones diferentes. Para asegurarse de que no está cometiendo este error, asegúrese de que la imagen complemente y apoye el contenido textual, haciendo que este se entienda mejor, de lo contrario, dicha imagen sólo va a representar un elemento distractor para el estudiante, las imágenes deben tener un propósito didáctico y no sólo ornamental.

4) ¿Existe un equilibrio adecuado entre los gráficos y los textos?

¿Está utilizando imágenes y texto que se vean bien juntos? ¿Hay demasiados o muy pocos gráficos? Demasiado texto o sólo gráficos pueden no ser eficaces en la retención del conocimiento. Las imágenes deben complementar el contenido textual y mejorar el valor de aprendizaje, crear un curso efectivo de elearning implica equilibrar correctamente los gráficos y el texto. Errar en esto podría no tener el impacto adecuado es su audiencia (estudiantes). Utilice gráficos e imágenes de forma racional, siempre que sea necesario ejemplarizar una explicación textual o dar una referencia visual muy necesaria.

5) ¿Cómo es la tipografía (Forma y estilo de los texto)?

El esquema tipográfico empleado en un curso e-learning facilitará la compresión en la lectura, asegúrese de utilizar fuentes sin serifa o palo seco, son aquellas fuentes carentes de remates en sus extremos al estilo de la comúnmente famosa "ARIAL", dicha fuente es ideal para leer en pantalla, adicionalmente no utilice tamaños menores a 11 pts, y estructure una alineación a la izquierda, nunca use la alineación justificada. Se consistente con la fuente empleada y no utilice más de dos tipos diferentes.


6) ¿Mi contenido visual es simple y directo?


¿Mi contenido transmite el mensaje rápidamente? O ¿se requiere una inversión de tiempo superior? En última instancia, es necesario determinar si lo que está presentando se ve puede entender fácilmente. Ser creativo en la forma de presentar su contenido no tiene nada de malo , nada más asegúrese de que el resultado de eso sea placer, no confusión. Su trabajo consiste en crear relaciones y orientar la comprensión del alumno en todo momento. Póngase en los zapatos de su audiencia: ¿Es legible? ¿Es interesante? Y siempre aplique la verdadera prueba de un elemento visual: ¿Puede el alumno mirar la imagen y comprender el concepto de la pantalla sin necesidad de leer el texto?

7) ¿Cuenta con apoyo audiovisual?

Al igual que las imágenes de apoyo a los contenidos, puede valerse de videos que sean pertinetes al tema tratado, sin exagerar en su aplicación, ubíquelos preferibemente al final de los contenidos como aporte final, o a un lado en partes muy específcas del texto, cuando sea asi, no deben ser muy extensos, incluso pueden ser simples animaciones.





 8)  ¿Le gusta a mis alumnos? 


Aún cuando esta parte no corresponde a consideraciones visuales, es importante emplear mecanismos que le permitan obtener respuesta a las necesidades de sus estudiantes, y específicamente a la forma como ellos ven el aula virtual. Las opiniones apreciaciones y sugerencias son valiosas. Válgase de herramientas como sondeos de opinión electrónicos, un foro sobre el tema, entre otras. Posteriormente aplique los correctivos necesarios





Artículo

@Alexandersilvar

Toca lo Táctil, pantallas AMOLED


Hablamos continuamente de diferentes tipos de pantallas pero no nos hemos detenido lo suficiente a explicar qué es concretamente una pantalla AMOLED. AMOLED viene de Active Matrix Organic Light Emitting Diode, significando estas cuatro últimas palabras las pantallas OLED, aún más conocidas que las pantallas AMOLED.

pantalla-amoled
Estas pantallas AMOLED se usan fundamentalmente en dispositivos móviles tales como teléfonos móviles y consisten principalmente en un conjunto de píxeles OLED que se integran en transistores de película fina, TFT, para crear una matriz de píxeles los cuales se iluminan cuando sea activan de manera eléctrica estando controlados por interruptores que regulan el flujo de corriente que recibe cada uno de los píxeles.
De este modo, el TFT regula la corriente que fluye por cada uno de dichos píxeles pudiendo diferenciar cada pixel en función del nivel de brillo que mostrará. Lo usual es que dicha corriente se controle usando dos TFT por pixel; uno se encarga de iniciar y detener la carga del condensador mientras que el otor se encarga de proporcionar el nivel apropiado de tensión al pixel para crear una corriente constante y evitar los picos de alta corriente.

Estas pantallas AMOLED cuentan con cuatro capas (capa del ánodo, capa intermedia orgánica, capa del cátodo y la capa que contiene toda la circutería) tal y como vemos representado en la imagen superior. Visto así seguro que te preguntarás, ¿qué diferencias aporta con respecto a una pantalla OLED?
De cara al consumidor la más significativa es el consumo de energía puesto que si en una pantalla OLED éste ya es bajo, en una pantalla AMOLED el consumo de potencia es aún menor siendo ideal para aquellos dispositivos donde la batería es reducida así como dispositivos que cuentan con una pantalla de entre 2 y 3 pulgadas, de ahí que sean usadas principalmente en dispositivos móviles.
Entre las ventajas de estas pantallas AMOLED, además del bajo consumo de energía, cabe destacar su delgadez y ligereza, la posibilidad de enrollar la pantalla facilitando su transporte o almacenamiento lo cual ayuda además a evitar que el dispositivo sufra una rotura gracias a su sistema de protección. Así mismo, ofrece una calidad de imagen superior y un menor coste que las pantallas LCD actuales.

martes, 23 de abril de 2013

¿Eres Influyente en Internet?


Cuando se habla del nivel de éxito o influencia en Twitter, la mayoría de los usuarios de esta red social lo asocia inmediatamente a la idea simplista de tener muchos seguidores, un tremendo error del que ya hemos hablado varias veces porque, como puedes ver en este post, esta cifra, por si sola, no  dice absolutamente nada sobre tu influencia real en Twitter. Algo que reconocen incluso los propios fundadores de Twitter.
Esto es así, sobre todo, por las técnicas de dudosa ética con las que la enorme mayoría de usuarios de Twitter ceban artificialmente sus cuentas, un tiempo perdido porque la calidad de sus seguidores es tan mala (interactúan tan poco) que resulta muy cuestionable que el esfuerzo invertido sirva realmente para algo que no sea presumir de un gran número de seguidores, sin contar que para muchos tuiteros es una buena razón para no hacerse seguidores de una cuenta que aplica estas prácticas.
Así que mi consejo es muy simple: si de verdad quieres aprovechar tu cuenta Twitter para algo útil, incluso sacarle algún partido a nivel profesional, céntrate en desarrollar una actividad que obtenga resultados y no en hacer el paripé con un montón de gente (y/o cuentas falsas) que básicamente pasan de ti. Y esto pasa por lo que tantas veces habrá leído ya: usar Twitter aportando valor a tu comunidad.
Así conseguirás seguidores "de verdad", gente que realmente aprecie tus aportaciones y que por tanto interactuará contigo, gente con la que tú también interactuarás y a la que, llegado un momento dado, incluso te puedes plantear venderle algo si has generado suficiente confianza para ello. Y además, de paso, le estarás dando un buen empujón a tu marca personal.

Sólo podrás saber si eres influyente en Twitter si sabes medir correctamente

Para saber si lo estás haciendo bien has de medirlo de una manera correcta y eso pasa por usar criterios con un poco más de sentido que el dato hueco de tus seguidores en Twitter.
captura de Klout
Klout es una de las herramientas más populares para medir la influencia de los usuarios en Twitter.
Las métricas válidas son las relacionadas con la influencia que logramos en Twitter, es decir, las que miden el impacto de nuestros tweet en diferentes vertientes.
En torno al concepto de la influencia han nacido toda una serie de herramientas como Klouto PeerIndex, las cuales se basan en métricas como los retuits o las menciones para calcular unos índices de influencia que son mucho más representativos de la calidad nuestra cuenta Twitter que el número de seguidores.
En el caso de Klout, por ejemplo, usa fundamentalmente tres criterios: la cantidad de gente a la que influimos (es decir, número de seguidores), en qué medida conseguimos influirlos (retuits, menciones, comentarios, enlaces, etc.) y la relevancia o nivel de influencia de los propios seguidores. Cuanto mayor es el índice Klout, más atención estás recibiendo con tus tuits.

¿En qué te deberías fijar para medir tu influencia real en Twitter?

Usar una herramienta como Klout es una primera aproximación mucho más válida, aunque no perfecta, para medir el éxito real de tu cuenta Twitter, la calidad de tus acciones y la calidad de tus seguidores. De hecho, tanto Klout como PeerIndex no dejan de ser herramientas que reducen al final todo a un simple índice y que, además, han recibido duras críticas por sus detractores.

En cualquier caso, los criterios medibles son los que son, así que repasamos los más importantes, los cuales te van permitir evaluar bastante bien cuál es tu nivel real de éxito en Twitter.

1. Interacciones (retuits, favoritos, menciones, respuestas/conversaciones)

Estas interacciones son el criterio más obvio, tan obvio que no entiendo muy bien cómo Twitter no incluye un índice parecido al de Klout (que se basa en gran medida en las interacciones), junto con las tres métricas de tweets, seguidos y seguidores que se ven en la portada de los perfiles de Twitter.
Serían muy interesantes, por ejemplo, uno indicadores tan simples de retuits por mes (mediría el impacto en tus seguidores inmediatos) y otro que fuera este mismo número dividido entre el número de seguidores (mediría calidad de tus tuits y "el caso" que te hace tu comunidad de seguidores).
¿Cómo es posible que Twitter no ofrezca un simple cuadro con cosas tan simples? ¿Será porque temen tirar piedras contra su propio tejado al destapar con ello a la gran cantidad de vendedores de humo que pululan por Twitter?

2. Conversiones (clics, acciones, etc.)

Otro criterio muy importante son las "conversiones", es decir, las veces que hayas logrado una acción por parte de un seguidor en Twitter (típicamente que haga clic en un enlace).
imagen perfil Twitter
Este espacio sería un buen lugar para añadir un indicador de la influencia real de la cuenta. Es difícil de comprender que Twitter no corrija un defecto tan obvio.
Esta métrica no solamente es útil para medir tu influencia (porque reflejará la confianza que tiene tu público en ti) sino que además resulta un feedback tremendamente útil (qué le gusta y qué no a tu público), aunque esto último relativiza también su valor como métrica para medir tu influencia.
En cualquier caso, un truco para medir el éxito de los tweets es usar acortadores de URLs para los tweets con enlace. Acortadores como bitlyque permiten crearte una cuenta con estadísticas del número de clics que ha recibido el enlace acortado con ellas.
Si usas herramientas para el encolamiento automático de tweets para enviarlos en horarios óptimos como Buffer (que recomiendo muy encarecidamente) ya tienes esta funcionalidad incorporada en la propia herramienta. Algo similar ocurre con la herramienta Twitterfeed que ya hemos recomendado en numerosas ocasiones para conseguir seguidores de calidad en Twitter.

3. En cuántas listas estás

Que alguien te incluya en una lista de Twitter es un reconocimiento a tus aportaciones. Por tanto, este sería otro indicador muy sencillo y claro de la calidad de una cuenta Twitter.
Aunque Twitter te permite ver el listado de las listas en las que figuras, no han tenido el pequeño detalle de visualizar en alguna parte el número exacto de listas y en nuestro caso, por ejemplo, que ya estamos en más de 200, pues se hace algo pesado contarlas una a una…
Pero, por suerte, hay herramientas como Twitonomy que te dicen esta cifra.

4. Número de #ff recibidos

Los Follow Friday son unas menciones de reconocimiento especial hechas por otros usuarios (usando los hashtags de #ff o #followfriday) que premian expresamente la calidad de las cuentas mencionadas. Normalmente son los usuarios más influyentes los que más #ff reciben. Así que resultan un indicador de calidad bastante interesante.
Aunque esta misma circunstancia también tiene su lado oscuro porque puede también ser un indicador bastante manipulable cuando lo usan grupos de tuiteros que se coordinan entre sí para hacerse mutuamente este tipo de reconocimientos  para autopromocionarse.

5. Seguidores activos / inactivos / fake (falsos)

Una parte no despreciable de las cuentas Twitter son cuentas falsas o inactivas. Estas cuentas se pueden detectar con herramientas como Fake Followers Check (detecta cuentas falsas) o Twit Cleaner (detecta cuentas con determinados comportamientos "sospechosos"). De hecho, yo las uso para limpiar de vez en cuando la lista gente a la que seguimos porque regularmente se nos cuelan falsos seguidos (seguramente a través de herramientas que usan en API de Twitter).
En este sentido es interesante saber qué % de una cuenta Twitter son seguidores reales (auténticos y activos) ya que los falsos o inactivos no se pueden contabilizar como seguidores, son puro humo y no te ayudarán en nada para mejorar tu nivel influencia en Twitter.

¿Cómo medir con estas métricas?

Hay una increíble cantidad de herramientas de análisis y monitorización de Twitter, junto con una cantidad increíble de posts de las "X mejores herramientas de Y para Twitter".
imagen Twitonomy
Twitonomy aporta métricas de muchísimo valor y lo hace gratis. La captura sólo refleja una pequeña parte,
Entre esta jungla de información uno de los post que más me han gustado (y eso que es un listado muy cortito comparado con otros), y cuya lectura te recomiendo especialmente, es este post de 10 Herramientas de análisis y estadísticas visuales (en inglés). No todas me convencen, pero en cambio, algunas como Twitonomy (la descubrí  gracias a este post) o TweetStats son muy recomendables.
En particular, Twitonomy me parece espectacular teniendo en cuenta que ofrece gratis un nivel de información y prestaciones que normalmente sólo se encuentran en herramientas de pago. Ya verás como con esta herramienta irás más que servido por mucho tiempo.

Concluyendo

No cabe duda de la importancia y del valor de Twitter como red social y como herramienta de comunicación y difusión, pero desgraciadamente también está llena de cosas que son humo como lo es la falacia de que el número seguidores refleja tu importancia o influencia en Twitter.
Sin embargo, si te quieres tomar esta red social en serio, verás que, bien usada, funciona muy bien. Pero para ello tienes que aprender a usar las métricas correctas para medir tus progresos y no autoengañarte creyendo que si consigues muchos seguidores a base de seguir a otros que te hacen un "follow back" estás progresando.

Lo que estás haciendo en este último caso es simplemente perder el tiempo.

Adicionalmente, con estas herramientas vas a aprender a conocer más a tu público ya que verás los horarios en que la mayoría interactúa, los temas que más les interesa y quiénes son sus abonados más activos.



Con estas herramientas vas a aprender a conocer más a tu público ya que verás los horarios en que la mayoría interactúa, los temas que más les interesa y quiénes son sus abonados más activos.   
Estas estadísticas están para ayudarte, úsalas de forma positiva y te ayudarán a optimizar su presencia en internet. 


Mide: Twitter, Facebook, Google+, Linkedin, Foursquare, Youtube, Instagram, Tumblr, Blogger, Wordpress, Last.fm y Flickr
Mide: Facebook, Twitter, Linkedin, Quora y los Blogs
Mide: Facebook, Twitter, Analytics, Youtube, MySpace y Bit.ly
Mide: Facebook, Twitter, Linkedin y Foursquare
Mide: Facebook y Twitter
Mide: Twitter, Facebook, Google+ y Linkedin
Mide: Pinterest
Mide: Google+
Mide: Twitter
Mide: Twitter
Mide: Twitter
Mide: Twitter
Mide: Twitter
Mide: Facebook
Mide: Twitter

82% de las páginas Facebook hacen menos de 5 publicaciones al mes

Un estudio hecho por la firma Recommend.ly revela que el 82% de las páginas Facebook comparten menos de 5 publicaciones por mes. 54% de estas publicaciones son actualizaciones sin enlaces fotos o videos.

Un promedio de 91% de las conversaciones que se dan en las páginas Facebook de empresa son descuidadas. Las empresas locales son aquellas que son menos activas en Facebook. Ellas participan en el 6% de las conversaciones que tienen lugar en sus páginas. El 56% de las páginas Facebook tienen menos de 256 fans.


Según Recommend.ly que ha analizado 1,7 millones de páginas en Facebook para hacer el estudio, las marcas siguen estando desorientadas sobre la mejor forma de aprovechar el gran potencial de esta red.

El CEO de Recommend.ly informa que las marcas fracasan a la hora de compartir contenido apropiado al momento apropiado, de responder correctamente a sus abonados, de participar a las conversaciones y de comprender las medidas de interacción.

Recomend.ly es una herramienta que ayuda a optimizar la presencia en Facebook ya que analiza la página y según las estadísticas te indicará cuales son los horarios ideales para compartir información. Además podrás ver una lista con tus seguidores más activos y los mensajes sin respuesta de tu página. Puedes agregar la página de dos empresas de la competencia y ellos la evaluaran para que puedas hacerles un seguimiento.

Con la opción “Zen” tienes una lista de cosas por hacer para optimizar tu página con consejos.

Los servicios de Recommend.ly son gratuitos para las páginas con menos de 250 fans. Para los otros continua siendo gratis para la versión BETA, asi que aprovecha para hacer una evaluación de tu cuenta y optimizarla.

Mundo en 3D

Como-funciona-la-tecnologia-3D.jpg 
 iStockphoto/Thinkstock
Siempre he disfrutado de una buena película en el cine pero, en nuestros días, las nuevas tecnologías hacen que la experiencia sea realmente única y sorprendente. Aunque colocarse esas repugnantes gafas de un poco de asco, me olvido de todo cuando mis sentidos se estremecen en la sala y es que las nuevas películas en 3D han llevado el realismo a su máximo extremo.
Pero aún más divertido que ver a las señoras saltando asustadas en la sala, cuando alguna escena las toma por sorpresa y creen que algo vuela hacia su cara o tienen que esquivar un trozo de árbol en llamas cayéndole encima, es conocer cómo diantres se logra todo esto. ¿Te has preguntado cómo funciona la tecnología 3D?

Una breve mirada histórica: desde el estereoscopio a las gafas

Como-funciona-la-tecnologia-3D-1.jpg 
iStockphoto/Thinkstock
Para poder entender adecuadamente qué es y cómo funciona el 3D deberíamos remontarnos hasta el año 1838, cuando el científico e inventor británico Sir Charles Wheatstone describió el llamado proceso de estereopsis por primera vez. Según este señor, la estereopsis es el proceso a través del cual los humanos perciben en tres dimensiones, a partir de dos imágenes muy similares que son superpuestas. Wheatstone, de hecho inventó el estereoscopio, el primer dispositivo capaz de crear la ilusión de ver imágenes tridimensionales.
Con el paso del tiempo, sus ideas se fueron desarrollando y numerosos avances se fueron consolidando, lo que trajo una especial herramienta para las artes visuales. Un claro ejemplo fueron las cámaras fotográficas estereoscópicas, que permitían tomar fotografías en tres dimensiones. Estas cámaras tomaban una fotografía y creaban dos imágenes con variaciones mínimas que se capturaban en simultáneo. De esta manera, la cámara imitaba la visión binocular humana, en la que se crea una imagen para cada ojo y luego el cerebro se encarga de unirlas, formando una sola imagen en 3D.
Como-funciona-la-tecnologia-3D-2.jpg 
© Getty Images/Photos.com/Photos.com/Thinkstock
(Fotografía capturada con una cámara estereoscópica)
Aproximádamente a partir de la década de los '50, la historia del cine comenzaba a dar su primeros pasos en el desarrollo de lo que, de cierto modo, hoy conocemos como la tecnología 3D. Para entonces, los directores comenzaron a experimentar y arreglárselas con diferentes elementos para provocar en los espectadores un efecto de tercera dimensión. Entre los '80 y '90, la idea del formato 3D tuvo una especie de resurgimiento y gracias al desarrollo de nuevas tecnologías, desde el 2000, la tecnología 3D se ha vuelto de lo más frecuente y eficaz.
Ley de Atraccion Gratis
Este Reporte te Explica como Aplicar La Ley y Lograr Resultados ElSecretoSobreLaLeyDeAtraccion.com
¿Carga a Venezuela?
Puerta a Puerta o Carga Consolidada Somos su Solución, Entrega Inmediat tclservices.net
Tecnología Humanitaria
Diseño y creación de tecnologías para desarrollo social www.ilabamericalatina.org
Actualmente, las películas en 3D, que son las de más alto presupuesto, están en todas partes. En realidad, hoy el 3D se utiliza en una variedad de ámbitos, hasta existen televisores con 3D que permiten utilizar esta tecnología en tu hogar y por ejemplo, en los videojuegos, se emplea todo el tiempo. Existen 4 grandes tipos de tecnología 3D que se utilizan con mayor frecuencia en el cine: el anaglifo, la polarización, el de gafas activas de obturación y el de la barrera de paralaje.

El 3D y su funcionamiento

Como-funciona-la-tecnologia-3D-3.jpg 
 Fuse/Thinkstock
La tecnología 3D funciona intentando replicar los procesos de estereopsis y las mismas ideas a las cuales nos referimos cuando hablamos de las cámaras fotográficas estereoscópicas. Nuestros ojos se encuentran a una distancia aproximada de entre 50 y 70 mm. de separación entre uno y otro, lo que resulta en el hecho de que cada uno inevitablemente capta una imagen diferente a la del otro. Ambas imágenes llegan al cerebro y allí es donde se hace la geometría de alta potencia, allí se forma una única imagen en 3 dimensiones, por lo que podemos decir que en sí el cerebro se encarga de todo. Es precisamente ésto lo que busca replicar la tecnología 3D.
En el cine (como en la TV, los videojuegos, etc.), se colocan las imágenes en la pantalla y ya sea con las gafas, lo proyectores de plata o cual sea la herramienta, especialmente diseñadas para hacerle llegar diferentes perspectivas de cada imagen a cada ojo. El cerebro averigua cuáles son las diferencias y automáticamente corrige los errores geométricos y matemáticos de cada punto y de cada ángulo, logrando una sincronización perfecta y formando una sola imagen en tres dimensiones. El cine ha sido pionero en el desarrollo de esta tecnología y aunque ya mencionaba que existen 4 tipos de ésta utilizados con más frecuencia, los 2 más comunes son el anaglifo y la polarización.

El anaglifo y la polarización

Como-funciona-la-tecnologia-3D-4.jpg 
iStockphoto/Thinkstock
El anaglifo no es más que el de las gafas azules y rojas, esas con las que luces como todo un idiota, si. Funcionan cuando se proyectan imágenes en esos dos colores, cada ojo tiene una perspectiva de cada color y el cerebro les pone el efecto 3D, pero esta técnica no es muy eficiente pues limita la gama de colores considerablemente
El de las gafas polarizadas es más común y funcionan mejor ya que la luz es polarizada o se le puede dar una orientación diferente a cada imagen. Por ejemplo, proyectar una imagen en forma horizontal y otra vertical mientras que cada lente de las gafas permitirá la polarización correspondiente, luego ya sabemos, le toca al cerebro. El problema con estas es que la cabeza debe mantenerse en una posición determinada que suele ser muy incómoda, tanto como en La Naranja Mecánica.
Para solucionar estos problemas, hoy la tecnología 3D utiliza un complejo sistema de rotación de polarización que hace que la película se proyecte en dos direcciones y giros diferentes. Luego, las gafas recogen esas rotaciones opuestas (una con sentido horario y otra antihorario) y separan cada imagen en cada lente, el resto lo hacen los ojos y el cerebro. De esta manera, no importa desde donde se mire ni si se mueve la cabeza, superando el problema de la postura.
Muy interesante, ¿no lo crees? ¿Cómo crees que se podrá utilizar esta tecnología en el futuro? ¿Para que otras cosas crees que nos puede servir fuera del ámbito del arte y el entretenimiento? 

Diseño rígido vs diseño flexible



Existen cuatro tipos de esquema de diseño web:

El diseño web fijo, o fixed web design en inglés.
Este tipo de esquema de diseño es obsoleto y poco práctico, por lo tanto no recomendable en la actualidad. a pesar de ello es el más utilizado en Internet, y es aquel que permanece inalterable sea cual sea el dispositivo donde se visualiza el sitio web, sean cuales sean las características del dispositivo, pantalla o navegador, siempre se visualiza el mismo tamaño preestablecido por el
diseñador web en píxeles.


El diseño web fluido o diseño web líquidofluid web design o liquid web design.
Es aquel que tiende a ocupar todo el ancho de la pantalla, sea cual sea el tamaño de esta. Es un tipo de diseño menos utilizado que el anterior, ya que requiere de mucho más trabajo por parte del diseñador web y a que si no se realiza correctamente su resultado puede resultar bastante atractivo para tamaños de pantalla “normales” y pequeñas, pero cuando se emplean pantallas de muchas pulgadas su estética resulta, cuanto menos, horrible, a no ser que se utilicen técnicas como el uso de max-width para limitar el máximo ancho aceptado por nuestro diseño (aunque  max-width no es una propiedad aceptada por algunos navegadores como el internet explorer). En este caso el diseñador web utiliza porcentajes en lugar de píxeles para establecer los anchos de sus diseños, aunque en este caso

principalmente afecta a las cajas contenedoras de textos (DIV), aunque también se pueden emplear píxeles y medidas máximas y mínimas con min-width y max-width. Por suerte es un tipo diseño que cada vez va tomando más terreno y va sustituyendo al diseño fijo.

El diseño web elástico, elastic web design.
Es un tipo de diseño muy parecido al fluido, sólo que en este caso el contenido (imagenes) también crece junto al ancho del diseño para rellenar la pantalla. Es, con diferencia, un tipo de diseño prácticamente residual y muy poco usable. Volvemos a lo mismo que en el caso del diseño fluido, el diseño elástico puede resultar más o menos agradable en tamaños de pantalla más o menos pequeños, pero cuando se utilizan pantallas muy grandes el contenido se vuelve exageradamente irracional, por lo que salvo contadas excepciones, no tiene ningún tipo de razón de ser. En este caso el diseñador web utiliza em para fijar los anchos de su diseño web y del resto del contenido que alberga. Es un tipo de diseño del que debemos alejarnos lo más posible.

Por último tenemos el diseño web sensible, o responsive web design en inglés.
Que es un tipo de diseño que se transforma en función del tipo de dispositivo o del ancho del navegador web que lo visualiza. De esta forma se muestra un diseño web en dispositivos smartphones, otro diferente en dispositivos tipo tabletas, y otro distinto en ordenadores. De esta forma el diseñador web se asegura de que el contenido que visualizan los usuarios se ajusta a las necesidades de su dispositivo y, aunque la información mostrada es exactamente igual, sea cual sea el dispositivo que la visualiza, el diseño varía sensiblemente para optimizar al máximo el acceso a la misma. En este caso el diseñador web emplea diferentes hojas de estilo que cargará mediante el uso de JavaScript en función de las necesidades que se establezcan, principalmente ancho del navegador web y tipo de dispositivo. Este es el diseño que más en auge está teniendo gracias al uso masivo de dispositivos smartphones y tabletas en el uso diario de la Internet. El único problema que plantea este tipo de diseño, además de su complejidad, peso y tráfico generado, es el de la accesibilidad para dispositivos que tienen inhabilitado o que no disponen de tecnología JavaScript, aunque por suerte son una inmensa mayoría en la fauna de Internet.

Es recomendable crear las páginas con un diseño flexible y adaptable al tamaño de la pantalla sea éste el que sea, lo cual se consigue utilizando unidades relativas. Es decir, que independientemente de cuál sea la resolución del monitor del usuario éste debería ver bien los contenidos, sin que le aparezca la molesta barra de scroll horizontal. En teoría en una página principal tampoco debería aparecer el scroll vertical.

Una de las fijaciones de algunos diseñadores, especialmente de los que aprendieron a diseñar haciendo carteles y folletos impresos, es querer que SU página se vea siempre igual, en cualquier monitor y configuración. Eso es algo que se puede controlar en el mundo del papel, pues el diseñador decide (o conoce) el tamaño del papel, su gramaje, tamaño de la letra, las tintas, los tipos de letra… Sin embargo en internet controlar éso no sólo es casi imposible, dada la infinidad de equipos y resoluciones, sino nada recomendable, pues el usuario es soberano y es quien debe decidir cómo quiere ver lo que tiene en pantalla.

Por otro lado, esto está muy bien en la teoría, pero en la práctica últimamente nos estamos topando con un problema importante dado el espectro de resoluciones posibles. Hace años había que tener en cuenta que las resoluciones tendrían un ancho de 640 px, 800 px y, como mucho, 1200 px. Ahora, con los monitores de 21 pulgadas, que ya no son un capricho para excéntricos podemos encontrar resoluciones que abarcan desde los 800 (cerca del 12% del total aún) hasta cosas inimaginables en mi modesto monitor de 15 pulgadas.

A donde quiero llegar a parar es a los problemas de legibilidad que pueden ocasionar páginas con un diseño totalmente líquido que contengan renglones de más de 200 cpl (caracteres por línea). Algo así sería muy complicado de leer. Algunos estudios sobre legibilidad sugieren que el ideal está en torno a 60-80 cpl y que por debajo y por arriba de esa cifra se empieza a hacer difícil la lectura, en el caso de renglones demasiado cortos porque hay que saltar con mucha frecuencia de renglón, y en el de los largos porque el desplazamiento lateral del ojo es excesivo.
Aún no tengo claro cuál es la solución, pues un diseño líquido basado en una maquetación clásica de tres columnas de distinto ancho porcentual (raíl de navegación, contenido, raíl de navegación secundaria) ya no se adapta bien a pantallas con una gran resolusión. De momento, no obstante, consideraremos una mala práctica el diseñar con anchos fijos, pues estaremos diseñando sólo para los usuarios que tengan una resolución igual o algo mayor a la del diseño, despreciando a todos los demás, a unos no dejándoles ver todo el ancho de la página en su pantalla, y a otros limitando el espacio útil a un pequeño espacio central.
Imagino que el camino es hacer CSS "inteligentes" que sepan modularizar los contenidos (organizar bloques) en función del espacio disponible. Hace tiempo que no leo novedades sobre ese aspecto. ¿Alguien está trabajando en ese campo?. Podríamos darle un ancho máximo, con un maxwidth o algo por el estilo, pero eso parece que aún no funciona en todos los navegadores.

Ajustes básicos para grabar vídeo con nuestra cámara DSLR

 Video en DSLR

La grabación de vídeo con cámaras DSLR es una realidad. Son muchos los usuarios que se lanzan por una Canon 7D o Nikon 7000 entre otros modelos buscando una opción más económica con respecto a las cámaras de vídeo profesionales. Evidentemente, pese a los grandes resultados que ofrecen hay limitaciones que no podemos obviar. De todas formas son y seguirán siendo una gran opción, más aún viendo como los fabricantes apuestan por esta función en sus nuevos modelos. Tanto en cámaras como en objetivos más silenciosos para no echar a perder una grabación por exceso de ruido al enfocar. Visto el interés de la función vídeo vamos a ver cómo configurar nuestra cámara DSLR para la grabación de vídeo.

Estilo de imagen

Estilo de imagen
Lo primero que tenemos que hacer es configurar el estilo de imagen que vamos a usar. Lo ideal es hacer uso de un perfil plano que luego nos permita un mejor etalonaje (procesado de la imagen: color, contraste, saturación…)
Si usáis una cámara Canon podéis descargar e instalar el perfil Technicolor que se puso no hace mucho a disposición de los usuarios tras un acuerdo entre ambas empresas.
Si no puedes instalar un nuevo perfil opta por modificar los que vienen ya preinstalados. Elige el perfil neutro, baja la nitidez, el contraste y la saturación. La idea es conseguir una imagen con un ligero tono grisáceo que luego nos permitirá un mejor ajuste en nuestro programa de edición.

Control de luces y el uso de los valores ISO

El siguiente punto es el control de luces. La mayoría de cámaras tienen opciones que permiten activar o desactivar el control de luces. Cuando grabamos vídeo ese control de luces automático puede llegar a resultar muy molesto. Sobre todo si nos movemos entre planos donde haya cambios con fuertes contraluces.
En cuanto a los ISO hay que procurar usar los valores ISO nativos siempre que sea posible.Principalmente porque el resto de opciones son ni más ni menos que esos mismos valores pero con ganancia subida o bajada de forma digital. Para mantener un rango dinámico adecuado los mejor es usar los ISO nativos. Y si tenemos que decidirnos por otro valor procurar que sean siempre valores ISO donde la ganancia esté bajada, por ejemplo ISO 320.

La regla de los 180 grados

Si hay algo que nos permite la grabación de vídeo con cámaras DSLR es conseguir ese look de cine que tanto gusta, aunque poco a poco esto irá cambiando. Para conseguirlo debemos controlar la apertura del obturador. La regla de los 180 grados consiste en colocar el obturador en un valor doble con respecto el número de fotograbas al que grabemos.
Por ejemplo, si grabamos a 24 o 25 fps nuestro obturador deberá estar en 1/48 o 1/50 respectivamente. Si por su parte estamos grabando a 50 fps el valor será 1/100. Esto nos permite obtener movimientos de la imagen naturales que nos recordarán a esas escenas de cine.

Extra, Magic Lantern

Magic Lantern
Si vuestra cámara es Canon y permite la instalación de firmware no oficial Magic Lantern os recomiendo encarecidamente que lo instaléis. Con esta versión modificada las cámaras ganan muchísimas prestaciones, sobre todo a la hora de grabar vídeo.
Y es que nos da un mayor control pudiendo establecer valores como la apertura, diafragma, ISO, etc… de forma más específica para cada situación. Sin duda, ML es lo mejor que podemos instalar en nuestra cámara Canon

Fuente: xatakafoto.com