Inicio

Project Aero

Deja un comentario

 

En la Apple’s Worldwide Developer Conference se ha mostrado un primer vistazo al proyecto Aero. Se trata de una nueva herramienta de autor multi-plataforma para entornos de realidad aumentada. De momento no tengo más detalle pero os iré informando por aquí tan pronto vaya teniendo noticias.

De momento lo que se puede adivinar en el vídeo hace buena pinta ¿no creéis?

Anuncios

Adobe anuncia que adquiere Magento

Deja un comentario

AdbMagento.jpg

Hace un par de días que Adobe volvió a sorprendernos con una noticia. Ha llegado a un acuerdo de adquisición de la empresa Magento technologies que comercializa una de las soluciones de e-commerce más populares del mercado.

Hay que aclarar que la sorpresa es relativa para muchos de los que trabajamos aquí. Dentro del portfolio de soluciones que se incluyen en la nube de Experience Cloud una de las piezas que se echaba de menos era una solución de comercio electrónico y dentro de la estrategia de adquisiciones que ha seguido la empresa para construir esta suite era de esperar que más temprano que tarde se efectuara un movimiento de esta índole teniendo en cuenta que la mayoría de competidores en el área de marketing y experiencia digital comercializa una solución de este tipo.

Así Magento se une a la cadena de adquisiciones que se inició con la adquisición de Omniture y que siguió con Day Software, Efficient Frontier o Neolane entre otras. Ahora solamente falta ver como será el desarrollo del acuerdo hasta que la adquisición se haya completado y Magento pase a ser Adobe Ecommerce.

Podéis encontrar más información en este enlace.

https://adobe.ly/2LjyNFe

Adobe adquiere Sayspring

Deja un comentario

SaySpring.png

 

Adobe anunció ayer la adquisición de la empresa Sayspring basada en Nueva York.

Esta empresa ha desarrollado una tecnología de reconocimiento de voz que permite utilizar este medio para realizar todo tipo de interacciones con aplicaciones utilizando nuestras cuerda vocales en lugar de nuestros dedos sobre un teclado o una superficie touch.

“La forma como interactuamos con nuestros dispositivos es un significante punto de inflexión”, dijo Abhay Parasnis, vice presidente ejecutivo y CTO. “Nos estamos moviendo más allá del teclado y el ratón e incluso más allá de la pantalla táctil para usar algo que todavía es más natural –nuestra voz– para interactuar con la tecnología. La voz está creciendo rápidamente y creemos firmemente que debe formar parte integrar del portafolio de soluciones de Adobe para seguir hacia adelante. Estamos muy ilusionados de ser bienvenidos en Adobe, y esperamos poner nuestra tecnología a trabajar para empoderar a más gente en la siguiente generación de creación de experiencias de voz”.

La empresa es muy joven, se fundó en 2017. La tecnología que han desarrollado permite diseñar aplicaciones de voz sin necesidad de código. Sin duda todo hacer prever que será una tecnología que aportará gran valor cuando se aplique de forma transversal al portafolio de Adobe.

El libro que nos lee a nosotros

1 comentario

jppi

Hace unos años escribí un post donde comparaba las ventajas/inconvenientes del libro electrónico frente al libro de papel. Claro que entonces el libro electrónico era algo sensiblemente a lo que es hoy día.

La lectura de un artículo de prensa que hablaba de las reflexiones del pensador Byung Chul-Han (que recomiendo encarecidamente) me acabó de hacer evidente lo que ya hace tiempo que rumiaba. Las actuales tecnologías de analítica y personalización ha conseguido que actualmente más que leer un eBook lo que ocurre es que el eBook nos lee a nosotros tal y como expresa el pensador coreano en sus conclusiones.

Y es que, como muchos lectores de ebooks habrán experimentado, el lector de libros electrónicos (sea un lector como tal o sea un dispositivo móvil como tablet o smartphone) mientras estamos conectados a Internet va enviando constantemente a la red información acerca de nuestros hábitos de lectura que posteriormente serán procesados por un algoritmo que podrá utilizar esa información como considere.

Una de los ejemplos más evidentes son los subrayados compartidos; cuando leo un libro veo un fragmento subrayado pero no por mí, sino por uno o varios lectores que han leído el libro antes que yo. Hasta ahí ningún problema, al fin y al cabo a veces también agradecíamos encontrarnos con el subrayado previo de un libro en la biblioteca, otras veces nos molestaba pero sabíamos que eran riesgos asociados a los libros usados. El problema es que con el libro de papel si quería gozar de un libro sin subrayar y entregarme al descubrimiento bastaba con comprarme ese libro nuevo. Por otro lado puede no interesarme que otros vean o sepan lo que yo he subrayado. En eBook estas decisiones ya están tomadas de antemano, aunque lo compres nuevo, quizá exista la opción de desactivar estas opciones (sinceramente no me he parado a averiguarlo) pero por defecto está activado el subrayado compartido que además te informa de cuantas personas lo subrayaron antes contribuyendo así a la uniformidad de pensamiento.

Claro que este es el menor de los males, una queja quizá algo tiquismiquis pero por supuesto la cosa no acaba ahí.

En base a toda la información recogida el propio lector me sugerirá otras lecturas al finalizar el libro, se supone que relacionadas con mis gustos A priori esto no parece un inconveniente sino más bien una ventaja, pero ¿cuánto tiempo creéis que pasará antes de que el cachivache me interrumpa no al final de la lectura sino en cualquier punto (en el que el determine que estoy especialmente “tierno” para comprar) y me ofrezca no otra lectura sino cualquier otro producto que el algoritmo piense que encaja en mis hábitos de consumo ( y en el tamaño de mi billetera)? ¿Cuándo el hábito de la lectura solitaria, por definición algo intimo, se convertirá en una puerta abierta a la caja registradora de vendedores cibernéticos de todo pelaje?

Quizá sea un paranoico y todo esto no sean más que falsos temores influido, como estoy, por un ambiente rodeado de datos, métricas y algoritmos de marketing digital, pero la idea de tener entre mis manos un robot que analiza todo lo que hago (vaticino que llegará un día que incluso el movimiento ocular será rastreado para adivinar en que palabra nos posamos) mientras leo hace que vuelva a re-plantearme mi cariño por el viejo libro de papel.

Imagen: jppi – Morgue files

Adobe Capture, ahora también para tipos

1 comentario

Ya hemos hablado en el blog de Adobe Capture, una de las aplicaciones touch de Adobe que permite capturar de forma rápida formas vectoriales, pinceles, paletas de colores, motivos y ahora se suman captura de tipos y materiales.

A la captura de materiales le dedicaremos un post específico. En esta entrada vamos a hablar de la captura de tipos.

¿Nunca te ha pasado que vas paseando por la calle y ves un logo o un rótulo en un comercio, en un cartel o en un vehículo, con una fuente tipográfica que te parece increible o simplemente te gusta? ¿En esos momentos no has deseado saber cuál era esa fuente tipográfica para poder utilizarla en tus propios proyectos? Pues ahora con Adobe Capture es posible.

El proceso es muy simple. Al abrir Adobe Capture seleccionamos la opción “tipos” y hacemos tap en el botón con el signo “+”.

A continuación se accederá a la cámara del dispositivo. Con la ayuda de una guía centraremos la imagen de la cámara con dicha guía de forma que el texto que queremos capturar quede sentado sobre ella a modo de línea de base.

linea base.png

A continuación pulsamos el botón central para realizar la captura. Aparecerá un recuadro que hemos de desplazar y re-escalar de modo que englobe el texto que vamos a capturar

TargusCapture.png

Pulsamos el botón centrar de nuevo -que ahora mostrará el símbolo de “visto”- y– ¡Ya está! así de sencillo. El algoritmo de inteligencia artificial de Adobe (Adobe Sensei) buscará entre todas las colecciones de fuentes de Typekit las que más se parezcan por morfología a la fuente capturada.

Targus2.png

Capture nos mostrará un listado con las fuentes candidatas. Deslizando con el dedo iremos viendo en scroll todas las fuentes que Capture considera similares a la que hemos captado. Por defecto el texto de ejemplo muestra una serie de glifos representativo de la fuente, pero haciendo clic en el enlace “cambiar texto” podemos modificar el texto de ejemplo e introducir, por ejemplo, el mismo texto de la imagen capturada; de esta forma será más fácil comprobar las similitudes entre la fuente capturada y la fuente de Typekit propuesta por la app.

El siguiente paso es seleccionar la fuente propuesta que más nos guste y añadirlo a cualquiera de nuestra librerías de Creative Cloud o crear una nueva. En mi caso, salvo que la fuente en cuestión esté asociada a un proyecto, las guardo todas en una biblioteca específica para fuentes capturadas, porque se que siempre puedo ir allá a buscarlas cuando las necesito.

biblioteca.png

Lo interesante es que haciendo tap en la fuente siempre podremos acceder a la ficha de información de esta donde podremos volver a ver la imagen en la cual nos basamos para capturar la fuente.

 

pescaderiaInfo.png

A continuación os pongo algunos ejemplos que capturé.

Volemcompo.jpg

EdifYucatan compo.jpg

Pescaderiacompo.jpg

Añadir que también podemos utilizar imágenes que ya estuvieran previamente en la galería o carrete del dispositivo. Y ya sólo me queda desearos que utilicéis la herramientas, si tenéis la oportunidad, y que disfrutéis con ella al menos tanto como yo mismo.

Mi primer personaje caminante en Adobe Character Animator

Deja un comentario

 

Recientemente he recuperado la costumbre de volver a trabajar con esta extraordinaria aplicación. La carga de trabajo de los últimos meses me ha obligado a dejarla algo olvidada. Espero poder dedicarle algo más de tiempo a partir de ahora. Este es mi primer ejercicio con una de las relativamente recientes novedades, la animación de personajes andando. Espero poder encontrar el hueco pronto para dedicarle un tutorial explicando el procedimiento.

Curso de UX/UI en Barcelona

Deja un comentario

Ux.png

La proliferación creciente de experiencias digitales a través de múltiples dispositivos no ha hecho más que aumentar la importancia de la disciplina de diseño UX/UI  colocándola como una de las claras disciplinas del presente/futuro.

En Adobe esto se tiene claro desde hace varios años cuando se lanzó la primera versión beta de XD (Experience Designer) una aplicación diseñada específicamente para crear prototipos interactivos y mockups. Desde entonces hasta ahora la herramienta ha evolucionado mucho y se ha convertido en una completa plataforma de confección de experiencias.

Si estáis en Barcelona o alrededores y estáis interesados en profundizar en el conocimiento y la utilización de XD, conocer su posibilidades y aprender a crear proyectos con ella de una forma metódica y eficaz os recomiendo el curso que realizará mi hermano y que comenzará el próximo día 20 de febrero. Podéis los detalles en el siguiente enlace https://www.facebook.com/events/146570302688890/

Curso práctico de diseño UX/UI para apps y páginas web. Aprende las técnicas esenciales del prototipado usando las tendencias de diseño actuales, y empleando como herramienta la aplicación Adobe eXperience Designer (XD)

Muy útil para actualizar conocimientos en el nuevo mercado de la Transformación Digital.

Older Entries