Inicio

Adobe Project Felix

Deja un comentario

intheforest

Las esferas son sintéticas, el resto fotografía

..

Aunque hace ya algunos días que se presentó y que está disponible para su descarga para todos los subscriptores de Creative Cloud, lo cierto es que hasta ahora no había tenido la oportunidad de probar el nuevo Project Félix debido en parta a las razones que exponía en mi anterior post. Para los que no hayáis oído aún hablar de Project Felix os comentaré rápidamente que se trata de una aplicación, todavía en fase beta, que sirve para crear escenas integrando mallas 3d con fotografía real.

En que consiste

Una de las principales ventajas es que no es necesario tener conocimientos de modelado 3D  -algo que aún hoy echa para atrás a algunos diseñadores-. De hecho su funcionamiento no puede ser más simple, basta con seleccionar una imagen de fondo y arrastrar objetos 3d de una biblioteca que viene incluida o importándolos de archivos externos. Una vez colocados los objetos en el escenario basta con hacer clic en un botón para alinear la vista del plano virtual con la perspectiva de la fotografía y en otro botón para adaptar la iluminación virtual a la iluminación de la propia fotografía.

Por supuesto los objetos se pueden desplazar, girar y cambiar de escala sobre el escenario con unos controles muy fáciles de manejar. También es posible asignarles materiales desde la biblioteca de materiales que se incluye. El resultado es que en apenas un par de minutos podemos componer escenas que combinan elementos sintéticos con imágenes captadas con cámara. Una vez realizada la composición se hace clic en el botón de render y empieza a visualizarse la imagen final. La calidad del resultado es realmente sorprendente como podéis ver en las imágenes que acompañan al post y que son todas experimentos que he estado realizando con la herramienta durante estos días.

Conclusiones

Las sensaciones han sido realmente muy buenas, pero teniendo en cuenta que se trata aún de una versión beta muy provisional. Ésta es la razón por la que se echan de menos muchas funciones que a buen seguro estarán en la versión definitiva y que son imprescindibles para considerar Project Felix una herramienta de creación auténtica. Por todas partes tanto en el interface como en las (pocas) prestaciones disponibles se nota a las claras que se trata únicamente de un experimento para hacer boca a lo que está por venir, eso sí te deja con muchas, muchas ganas de ver la siguiente evolución de la tecnología.

Entre las cosas que más se echan de menos en una primera visita estarían un editor de materiales o la posibilidad de añadir y editar luces personalizadas aparte de los “Presets” que viene con la biblioteca. Tampoco se entiende muy bien que se puedan arrastrar imágenes de fondo desde las bibliotecas de Creative Cloud pero no se puedan arrastrar objetos 3D creados en Photoshop por ejemplo.

Por otro lado, la función de importar objetos 3D a mí no me ha funcionado en ningún momento, es como si la función estuviera desconectada del comando de menú.

La calidad del render es muy buena, especialmente sombras e iluminación, pero lo encuentro aún algo lento incluso con una buena máquina.

Por lo demás estamos ante una herramienta con mucho futuro si se siguen haciendo bien las cosas. El re-cálculo de luces y de punto de vista de plano es sencillamente impresionante, La experiencia de uso del interface también sorprende por su fluidez y facilidad y el tiempo para conseguir un resultado excelente es casi inmediato. En definitiva no puedo negar mi entusiasmo frente a esta herramienta a pesar de todas las cosas que quedan aún por terminar. Estoy seguro que acabará siendo una aplicación (o una extensión de Photoshop) muy pero que muy buena.

Aquí os dejo algunas de las imágenes que he realizado jugando con ella los últimos días.

bottle

imagen realizada únicamente con elementos sintéticos sin imagen fotográfica de fondo

kapoor

Las pajaritas de papel y la botella son sintéticas, el resto imagen real. En esta fotografía me sorprendió especialmente la buena integración de los objetos 3d

rendermuseum

El telón, la esfera y la pelota gigante son elementos sintéticos, el resto es fotografía real

tres

Tres objetos 3d sobre un fondo real

inflatable

Prismas sintéticos sobre paisaje real

Cambio de rol dentro de Adobe

3 comentarios

aem-logo

 

En febrero hará 10 años que soy empleado regular de Adobe aunque me uní como colaborador del equipo de Adobe Ibérica en Noviembre el 2005. Cómo os podréis imaginar durante estos 10 años han cambiado muchas cosas dentro de la oficina a la que pertenezco. Físicamente sigue estando en la misma dirección de Barcelona pero son muchas las caras que han cambiado, personas que han llegado y se han ido, un total de 5 managers diferentes y un montón de eventos alrededor de múltiples países. Quedan muy poquitos del equipo original que había cuando yo me uní pero tengo la satisfacción de haber tenido una magnifica relación con todos ellos y con todos los nuevos miembros que han ido entrando. ¡Quién me iba a decir en aquellos entonces que me iba a acabar convirtiendo en uno de los veteranos!

El caso es que durante todo este tiempo ha habido una cosa que no ha cambiado o lo ha hecho únicamente de forma leve; durante todo este tiempo, como muchos de vosotros sabéis, toda mi actividad se ha movido alrededor de los productos que podemos llamar “creativos” al principio fue alrededor de Creative Suite y más adelante al Creative Cloud cuando se pasó al modo de subscripción. Dentro de mi area de cobertura también he incluido productos como Acrobat, Connect o Captivate, todos ellos los podríamos incluir dentro de la categoría que en Adobe llamamos Digital Media.

Pero en Adobe hay también otra división desde 2012 aproximadamente, con la adquisición de Omniture. Es la llamada división de Digital Marketing que ofrece toda una serie de soluciones que permiten a las empresas acelerar su transición de transformación digital y que consiste en proveer a los clientes no únicamente de la tecnología para crear el contenido sino también para analizar los datos de interacción con las audiencias, optimizar la comunicación con dichas audiencias y optimizar la experiencia de usuario para finalmente rentabilizar al máximo la inversión de cualquier organización, tanto a nivel financiero como estratégico, en el área digital.

Con este fin durante estos años se han ido adquiriendo empresas que han ayudado a colocar a Adobe como un líder en la creación y el tratamiento de la información digital. Entre esas empresas están, aparte de la propia Omniture, Day Software, Efficient Frontier o Neolane que han dado paso a productos como Adobe Analytics, Adobe Campaign o Adobe Experience Manager.

Pues bien, es precisamente de este último producto, Adobe Experience Manager, del que a partir del Enero del próximo año 2017, seré responsable en el papel de técnico pre-venta de la solución. Mi principal rol de trabajo será acompañar a los ejecutivos de cuentas para explicar las ventajas y el valor de negocio de esta solución a todos nuestros potenciales clientes.

En resumen, tras 10 años en el área de Digital Media me paso, por indicación de la compañía, al área de Digital Marketing cubriendo esta solución desde el punto de vista técnico.

Adobe Experience Manager es, explicado de forma breve, una plataforma basada en la máquina virtual Java, que permite la creación de experiencias digitales basadas en web o en aplicaciones móviles. Dicho de otra forma en un increíble gestor de contenido que permite generar sitios web responsivos, multi-sites y multi-idioma o bien aplicaciones nativas para dispositivos móviles. Con este fin la plataforma se divide en diferentes módulos AEM Assets que es el módulo de gestión de activos digitales (DAM), AEM Sites, el módulo para la creación de sitios web, AEM Communities para la gestión de la interacción con usuarios, AEM Forms para la confección avanzada de formularios y AEM Mobile para la creación de aplicaciones móviles.

Este cambio n mi carrera en Adobe lo vivo con una serie de sentimientos enfrentados pues si bien es cierto de que la solución de gestión de contenido de AEM es interesantísima y tiene un montón de recorrido para mejorar así como un montón de aspectos para conocer -y desde ese punto de vista reconozco que estoy bastante ilusionado- por otro lado el hecho de dedicarme a fondo a esta solución forzosamente va a significar dedicar menos tiempo a la parte de Creative Cloud que me sigue apasionando desde el primer día.

Por otra parte lo que no me motiva de esta solución es que es una tecnología enfocada a un grupo restringido y selecto de empresas que tienen unas necesidades muy específicas en el área de transformación digital y con el músculo financiero necesario para poder amortizar la inversión que supone AEM. Esto es algo que no ocurre con Creative Cloud donde el potencial cliente puede ser desde un freelance o un “prosumer” hasta una gran corporación.

Por eso no esperéis ver por el blog una abundancia de artículos acerca de AEM. Aunque lógicamente le dedique alguna entrada, después de 10 años con el blog tengo muy claro que el lector medio de esta bitácora es freelance, entusiasta digital o trabajador creativo en una agencia, así que no tendría mucho sentido extenderse en el conocimiento de una solución que, aunque estoy seguro que a la mayoría os gustaría porque es realmente buena, no ibais a poder utilizarla salvo que tengáis la suerte de trabajar para el departamento de desarrollo y/o diseño de una gran compañía, que aunque puede darse el caso, no creo que sea mayoritario.

En conclusión, cambio mi rol dentro de Adobe pero no esperéis ver muchos cambios en la temática del blog pues, por supuesto no pienso dejar de utilizar ni de seguir mejorando mi conocimiento de las herramientas creativas que son las que realmente me apasionan. En todo caso me costará algo más de esfuerzo encontrar el tiempo para poder mantener la media de 4 entradas mensuales.

En cualquier caso espero poder seguir contando con vuestra fidelidad y vuestra lectura como ha ocurrido a lo largo de estos 10 años.

¡Muchas gracias por estar ahí!

Tecnologías experimentales en Adobe Max

1 comentario

 

En el reciente evento tecnológico Adobe MAX que Adobe celebró hace unos días en San Diego hubieron multitud de sesiones inspiracionales de artistas y creadores de muchos lugares distintos. También se presentaron nuevas tecnologías entre las que destacan alguno proyectos aún en fase experimental que podrán o no incluirse en un futuro en las herramientas de Creative Cloud. En cualquier caso no dejaron a nadie indiferente.

Aquí os presento los vídeos de presentación de dichas tecnologías con una breve explicación de en que consisten.

Vo co

.

Esta tecnología permite analizar la grabación de una persona hablando. Tras ese análisis será posible insertar palabras o incluso frases nuevas tan sólo introduciéndolas a través del teclado y el algoritmo las procesará para pronunciarlas con la misma voz, así que no será necesario que esté la persona que grabó la secuencia original para añadir más texto a la locución. Adobe ha dicho que implementará en este algoritmo elementos que permitan detectar los fragmentos auténticos de aquellos producidos pro vía sintética. De este modo se evita que se haga un uso indebido de la tecnología si cae en las manos equivocadas. Cuando uno escucha el realismo conseguido con este algoritmo se entienden en seguida estas medidas de precaución.

 

Stylit

.

Esta tecnología “captura” un estilo gráfico y lo “mapea” sobre un objeto 3D estático o en movimiento. El procedimiento consiste en sombrear una esfera con diferentes colores que representan las sombras, los medios tonos, las luces el color de fondo y, de forma opcional, los sombras arrojadas. Con esta información el algoritmo re-interpreta el objeto 3d original y lo re-dibuja con las textura, los trazos y los colores del boceto.

Lo más interesante de todo es que el proceso lo realiza a tiempo real así que puedes ir dibujando tu esfera y ver de forma instantánea como tu estilo se mapea sobre el objeto. Desde la página Stylit.org puedes descargarte una demo para hacer pruebas tu miso, eso sí, solamente está disponible para Windows.

 

Clover VR

Clover VR permite editar vídeos panorámicos de realidad virtual directamente con un casco de visualización VR lo que hace que esta tarea sea mucho más rápida y sencilla.

Color Chameleon

.

En esta ocasión se trata de un algoritmo que iguala los colores de varias imágenes presentes en una misma composición, dándole a todo el conjunto un aspecto orgánico con tan sólo un clic. Realmente espectacular

 

Syncmaster

 

.

Modifica una pista musical dividiéndola en tonos altos, medios y bajos y posteriormente introduce “acordes clave” en cada uno de los eventos que detecta en un vídeo como cortes de plano. De esta forma es posible sincronizar el ritmo de la pista de vídeo con un sonido de forma automática y sin esfuerzo. El resultado es sorprendente como podréis comprobar si visualizáis el vídeo.

 

Loopwelder

Simplemente suaviza secuencias de vídeos repetitivos (como un tocadiscos, girando, un pájaro posando en una rama etc) para crear vídeos con bucles infinitos donde la “costura” entre el final y el principio de la secuencia sencillamente desaparece y podemos observar un continuo totalmente fluido.

No hace falta decir que el proceso es automático. Ideal para alargar hasta donde queramos cualquier secuencia de ambiente.

 

Concept Canvas

.

Sin duda una de las tecnologías que más me impresionaron de MAX.  Se trata de crear una composición o layout con rectángulos que representen los elementos que queremos que aparezcan en la imagen, personas. animales u objetos. En base a ese layout el algoritmo buscará en Adobe Stock fotografías donde aparezcan esos elementos en las posiciones relativas que se indican en la composición. Increible. No es de extrañar que esta tecnología arrancara una ovación de la audiencia.

 

Intervector

Un nuevo modo de vectorizar fotografías pero a diferencia del trazado de illustrator o de Adobe Capture este nuevo algoritmo permite un mayor control sobre la forma en como se crean los trazos. El método incluye controles automáticos, semi automáticos y manuales que proporcionan resultados limpios.

Wetbrush

.

 

Espectacular, sencillamente espectacular es la mejor forma de calificar esta increíble herramienta. Ya de pos sí es sorprendente ver el modo en como los colores se mezclan con total naturalidad a través del “pincel virtual” que aparece en pantalla y que respeta los movimientos que el artista hace con el stylus, pero lo más increíble es ver como dicha herramienta no únicamente crea pixeles de color sino que también “modela” una malla 3D que simula la pasta de la pintura. Al finalizar el dibujo es posible incliner el lienzo para ver como la luz ambiente interactúa con la textura, pero lo mejor de todo es que mediante la impresora 3D adecuada podremos imprimir el dibujo incluyendo el relieve de la pintura. ¿A que es alucinante? 😀

 

Quick Layout

Este algoritmo permite arrastrar imágenes a una zona determinada dentro de una composición y re-organizar todo para acomodar a las nuevas imágenes que se insertan. No importa si modificamos el tamaño o la posición de la caja, si añadimos o eliminamos imágenes de su interior, esta utilidad siempre encontrará un modo de re-ubicar el contenido. Se trata pues de una gran ayuda a la productividad.

 

Skyreplace

Nada más y nada menos que una utilidad que detecta el cielo dentro de una imagen de paisaje y lo sustituye por cualquier otro cielo y no me refiero solamente a que coloca una imagen en lugar de otra sino que también modifica la iluminación del resto de la imagen para que sea coherente con la iluminación del nuevo cielo.

Y estas fueron algunas de las principales novedades que se presentaron en MAX. Ahora solamente queda estar atentos para ver cuando las incorporan a nuestras herramientas favoritas.

La eliminación de botones y la asunción de riesgos

Deja un comentario

botonera

.

Esta mañana la llegar a mi oficina me he encontrado con algo que cada vez es más habitual; la botonera del ascensor había sido sustituida por un sólo panel táctil sobre el que se proyectaba la imagen de una botonera virtual. Dicha sustitución integral de botoneras por pantallas táctiles fue popularizada hace ya algunos años por Apple con su iPhone y desde entonces hasta ahora esta práctica se ha extendido no únicamente a las botoneras de los teléfonos sino también a las de cajeros automáticos, paneles de máquinas dispensadoras,  televisores y consolas de mandos de toda suerte de electrodomésticos (hasta se dice que el volante, las palancas y los pedales de un automóvil serán sustituidos por una tablet en los futuros vehículos autónomos).

Esta tendencia tecnológica no solamente permite presagiar un futuro cercano donde los relieves de los mandos de las máquinas serán sustituidos por suaves y uniformes paneles planos (todas las máquinas tenderán a parecer cajas) sino que también plantean ciertas cuestiones que no dejan se de inquietantes. Hasta ahora cuando si se estropeaba, averiaba o deterioraba un botón dentro de una botonera dejaba de estar disponible la función correspondiente a ese botón pero seguían estando disponible el resto; en el ejemplo de la botonera de ascensor, si se estropea el botón de la plata tercera, aún puedo pulsar el botón de la plant cuarta y bajar una planta andando, pero ¿qué pasa si falla el panel? pues que sencillamente todo deja de funcionar.

Y no me refiero necesariamente a un daño en el panel táctil, basta con que el software que reproduce el teclado virtual tenga algún fallo para que todo se vaya al car… Ahora imaginad este ejemplo aplicado a todas posibles situaciones donde la mecánica de los instrumentos de mandos sean sustituidos por la electrónica de los interfaces táctiles.

Y es que no hay que olvidar que el incremento de la complejidad en cualquier sistema, incluido el de los dispositivos electrónicos, si bien permiten mejorar las capacidades de dicho sistema también lo hace mucho más sensible y vulnerable a los fallos lo cual quiere decir que hemos de estar preparados para asumir más riesgos. Y..que queréis que os diga, eso es algo que veo con cierta preocupación. Me refiero a la “ceguera” que produce en una máquina la avería de su panel táctil y que la convierte automáticamente en una caja inservible.

Manipulación visual generativa e interactiva de imagen

Deja un comentario

.

La tecnología sigue avanzando a grandes pasos especialmente en el campo de la imagen digital. En Adobe somos conscientes de este hecho y es por ello que la empresa da mucha importancia a  la innovación en sus desarrollos para poder seguir manteniendo el liderazgo actual en el ámbito de las soluciones creativas.

La estrategia pasa no únicamente en invertir recursos en los equipos internos de ingeniería sino también en realizar alianzas estratégicas con centros de investigación y universidades como la que recientemente se ha establecido con la universidad de Berkeley para desarrollar un nuevo algoritmo de reconocimiento y edición de imagen que seguro que no te dejará indiferente. Echad un vistazo al vídeo que ilustra el post para entender de que estoy hablando.

El equipo de desarrollo de estas nuevas herramientas está compuesto por.

¿Qué os parece? A mí desde luego me ha impresionado mucho.

Ignoro si se realizará algún Preview de este proyecto en el próximo MAX que se celebra dentro de pocos días, pero estaría realmente bien.

CyborgNest North Sense

1 comentario

screen-shot-2016-09-19-at-11-24-45

.

En más de una ocasión he afirmado que  los objetivos de la tecnología cibernética no deberían limitarse a eliminar discapacidades en un individuo mediante la creación de prótesis biónicas como brazos, manos o piernas sino también a ayudar a mejorar las capacidades de nuestro cuerpo físico mediante la adición de nuevas funciones y “sentidos” que nos permitir extender las posibilidades de nuestro cuerpo.

Esta idea que quizá alguien pueda pensar arrogante o soberbia no es para nada novedosa. Durante toda la historia el hombre ha tratado, y en muchos casos conseguido, superar las limitaciones de su cuerpo natural, desde la propia ropa que vestimos hasta toda la colección de herramientas que hemos inventado tienen ese fin. Ni siquiera la idea de ampliar nuestras posibilidades mediante la tecnología cibernética es nueva. Con la popularización del uso de smartphone el común de los ciudadanos ha adquirirdo “poderes” que nuestros antepasados ni tan siquiera eran capaces de soñar. Podemos acceder a una cantidad ingente de información al instante como si lleváramos constantemente una biblioteca o un oráculo a nuestro lado, podemos comunicarnos con personas en casi cualquier lugar del mundo desde casi cualquier parte, podemos saber que tal les va a personajes famosos (y no tan famosos) casi a tiempo real y tenemos a una especie de “duende” que, en forma de GPS, nos dice por donde tenemos que ir para llegar a cualquier parte. Que esto sea algo que nos parezca normal hoy día por su uso habitual no quiere decir que se traten de capacidades asombrosas y casi milagrosas vistas en perspectiva.

Pues bien, desde este marco conceptual donde le damos la bienvenida a “North Sense” un proyecto liderado por el Cyborg Neil Harbisson que pretende aumentar nuestras capacidades añadiéndonos un sentido más a los cinco ya existentes. En este caso se trata de un pequeño aparato, bautizado como North Sense, que cabe en la palma de la mano y que puede adherirse fácilmente a cualquier parte de nuestro cuerpo. Con dicho dispositivo  sentiremos una vibración cada vez que nuestro cuerpo esté orientado hacia el norte, imitando así la capacidad innata que tienen muchas especies en el reino animal y que, según parece, nuestra propia especie también tuvo en alguna medida antes de que nuestros cachivaches electrónicos permitieran su total atrofia.

Ya está disponible en pre-venta por un precio de 350€ que podemos considerar razonable para aquellas personas que puedan sacar provecho de este nuevo sentido (exploradores, deportistas de alta montaña, marineros…) y quieran comprometerse con su evolución particular coo individuo hacia otro estadio de organismo ciborg. Esperemos que esta sea la primera de muchas iniciativas que tengan como fin el mejoramiento de la especie y la transición de la condición humana a la condición trans-humana.

Más infomación en http://www.cyborgnest.net/

 

Captivate Draft para iPad

Deja un comentario

Aunque esta herramienta no es nueva y ya lleva casi un año disponible en el App Store lo cierto es que es una gran desconocida. Se trata de una app muy versátil pensada para el mundo del e-learning y la educación.

Básicamente lo que permite es crear storyboards de lecciones completas para cursos de e-learning. Con un interfaz muy intuitivo permite insertar en las distintas “páginas” o “diapositivas” que componen un curso todo tipo de contenido multimedia como figuras geométricas, imágenes, vídeos, sonidos, texto u objetos web (efectivamente se pueden embeber páginas web dentro del curso). Se puede maquetar haciendo tap en los botones que representan los diferentes elementos o dibujando directamente sobre la pantalla del iPad donde hay una colección muy sencilla de gestos que transforman el garabato realizado en uno de los elementos que enumeraba antes.

El resultado puede colgarse en la nube y también puede enviarse por correo electrónico para ser revisado por un correcto o por cualquier miembro del equipo, La revisión se hace desde el propio navegador por lo que el revisor no tiene porque descargarse la aplicación ni utilizar un iPad.

Como es de imaginar el resultado se puede integrar con cualquier proyecto realizado con la aplicación de escritorio Adobe Captivate, de ahí su interés y su utilidad para todos los profesionales de creación de contenido para e-learning.

Os dejo un vídeo que os resume su método de trabajo.

Older Entries