Inicio

Publicar imágenes para Adobe Stock desde Bridge y Lightroom

Deja un comentario

La fotografía de Stock en general y Adobe Stock en particular puede ser una buena vía para dar una salida comercial a tus mejores trabajos de fotografía o ilustración y hacer llegar tu talento a miles de personas en todo el mundo. Desde hace varios meses es posible convertirse en un contribuidor de Adobe Stock en esta URL.

No obstante Adobe te lo pone más fácil ya que algo que se suele ignorar es que también desde Adobe Bridge y desde Lightroom es posible publicar directamente nuestras imágenes en Adobe Stock para poner su licencia de uso a la venta.

En Bridge basta con seleccionar el panel publicar desde el menú ventana y arrastrar las imágenes a dicho panel.

fig1.jpg

Previamente debemos habernos dado de alta en la web de contribuidores de Adobe Stock. Una vez las imágenes estén subidas a la web el propio panel nos informará de ello.

fig2.png

Aparecerá un icono de una nube con el símbolo de “visto” y un mensaje que nos muestra que la carga se ha realizado correctamente. A continuación se abre un nuevo panel que nos permite acceder directamente a nuestro panel de control de Adobe Stock.

fig3.png

Desde ese panel de control el algoritmo de I.A Adobe Sensei nos sugiere una serie de palabras clave basándose en el contenido de nuestra imagen. Las palabras clave son muy importantes para conseguir que nuestros ficheros sean encontrados por los potenciales clientes y lo cierto que el nivel de acierto de las palabras clave automáticas es asombroso. Por supuesto siempre es posible añadir de forma manual tantas palabras clave como sea necesario. Una vez realizado este proceso seleccionamos una categoría para clasificar la imagen y ya estaremos listos para enviar la imagen a revisión. Si la imagen pasa el proceso de revisión (este tiempo puede variar desde pocas horas a un par o tres de días dependiendo del volumen global a revisar) ya estará disponible para la venta.

En Lightroom el proceso también es muy fácil. Basta con seleccionar una o varias fotografías en el gestor de imágenes, y arrastrarlas al apartado Adobe Stock panel de servicios de publicación. Una vez realizada esta operación haremos clic en el botón Publish

fig4.jpg

A partir de ahí el proceso será el mismo que el caso anterior. Accederemos a la consola de Adobe Stock donde gestionaremos las palabras claves, incluiremos la imagen an alguna de las categorías disponibles y ya estaremos listo para enviar a revisión.

Mi experiencia con iPad pro

Deja un comentario

ipadpro.jpg

Los que habéis seguido de forma más o menos regular el blog sabéis que una de mis obsesiones es encontrar la máquina de dibujar definitiva. Aquí algunos post donde hablo de ello.

https://uklanor.wordpress.com/2007/11/04/nueva-wacom-cintiq-12-wx/

https://uklanor.wordpress.com/2011/09/02/inkling-de-wacom-este-producto-promete/

https://uklanor.wordpress.com/2013/09/02/cintiq-companion/

https://uklanor.wordpress.com/2009/11/27/lo-mejor-de-los-dos-mundos/

https://uklanor.wordpress.com/2011/07/12/dibujando-pajaros-una-comparativa-de-diferentes-dispositivos-como-gadgets-de-dibujo/

Hasta hace poco confieso que no acababa de encontrar esta máquina porque a pesar de haber muy buenas opciones en el mercado no había ninguna que cumpliera a la vez con todos los requisitos que le pedía a ese hipotético dispositivo. Los que había o no eran suficientemente ergonómicos o tenían una resolución inadecuada o una potencia insuficiente.

Pero entonces apareció en el mercado el iPad Pro y de nuevo despertó mi curiosidad. Lo cierto es que al principio no las tenía todas conmigo porque pensaba que acaso llegaba demasiado tarde. El iPad original, como sabéis, no traía stylus o un dispositivo equivalente que permitiera la motricidad fina, indispensable para dibujar. Ahora Apple solucionaba ese problema introduciendo una combinación perfecta con el Apple pencil y el iPad Pro, pero en el mercado ya hacía un tiempo que venían vendiéndose bastante bien equipos como la Wacom Companion o la Microsoft Surface que ofrecían la posibilidad de dibujar con un lápiz desde el principio, de ahí mis dudas.

Por suerte tuve la oportunidad de probar un iPad pro y en seguida vi que no había color. No me entendáis mal, tanto la Wacom Companion como la Surface son máquinas estupendas, el programa es que el software de dibujo que manejan tiene un interface que fue concebido para trabajar en un entorno de escritorio y eso se nota a la hora de desenvolverte con el stylus en la pantalla. No es confortable y al cabo de un tiempo es hasta molesto trabajar así (sí, es cierto que aplicaciones como Illustrator tienen interfaces “touch” pero ese tema casi es mejor olvidarlo porque se trata de una versión muy reducida del set de herramientas originales que lo convierte en una app bastante peor que Adobe Draw para iPad, por ejemplo y en la práctica sencillamente no es usable). La ventaja de que las apps para iPad hayan sido diseñadas desde el origen para un entorno “touch” hace que el trabajo con el Apple Pencil sea ágil y hasta divertido. El manejo del Apple Pencil es excelente. La potencia de la CPU también permite trazar líneas sin prácticamente ninguna espera y la sensación es increiblemente buena.

La única pega que le veía al modelo inicial de 12 pulgadas es que era demasiado aparatoso para transportarlo de aquí para allá en mi mochila y poder llevarlo a cualquier parte,como un cuaderno, para dibujar. Aunque esto era un problema mío personal no una pega que lo convirtiera en peor máquina de dibujo.

En Julio adquirí un modelo de 9 pulgadas y os puedo garantizar que no puedo estar más contento. Estoy disfrutando mucho dibujando con él. Para ser una máquina de dibujar aún mejor simplemente es necesario que vaya mejorando el software que hacen para ella, pero esto es algo que tiene fácil solución y cada día puedes más y mejores opciones en al App Store.

Lo único que le haría falta para ser un dispositivo de dibujo prácticamente perfecto es que pudiera dibujarse a plena luz del sol, lo que hoy no es posible de hacer cómodamente. En el mercado han surgido algunas alternativas que apuntan tímidamente en esa dirección como  la tablet de e-paper reMarkable pero que considero que tienen un precio excesivo para el conjunto de prestaciones que ofrece.

remarkable-frontpage.jpg

Diez frases que no hubiéramos entendido hace apenas diez años

Deja un comentario

phones.jpg

La tecnología avanza a un paso super acelerado de tal manera que cada vez se necesita menos tiempo para hacer que el panorama  en el que vivimos se haga irreconocible a alguien del pasado.

Si un habitante de 1900 se hubiera quedado dormido y no hubiera despertado hasta 1910, apenas habría notado diferencias  drásticas en el uso de la tecnología, ni siquiera si cambiamos los años entre 1950 y 1960. Sin embargo nuestro yo de 2007 probablemente se sentiría muy des-ubicado si viajara de golpe a 2017 e intentara captar a la primera mucho del contenido de conversaciones actuales dónde interviene la tecnología. He aquí algunas frases de uso común que probablemente nos habrían sonado a etrusco hace apenas 10 años.

  1. “Cuándo llegues a casa envíame un whatsapp…y haz caso al GPS!”
  2. “No veas la que se ha liado esta mañana en Twitter” (Twitter ya existía en 2007 pero ni de lejos tenía la importancia actual, solamente la conocían cuatro nerds y early adopters)
  3. “¿Probaste la app de GTD para iPad que te dije?”
  4. “Me encanta su Instagram, es super hipster”
  5. “¿Me followeas?”
  6. “Sería capaz de cualquier cosa por unos cuántos likes
  7. “Se deja su Tesla siempre enchufado delante del co-working”
  8. “Solamente puedes ver selfies en su timeline, WTF!?”
  9. “El periscope ya no se usa, utiliza el Stories
  10. “Yo hago trading con esta app, es lo menos arriesgado si pasa otra vez como en 2008”

Lo realmente interesante es proyectar esto mismo hasta el futuro. ¿Os imagináis, cuales podrían ser estas frases dentro de 10 años? Es imposible saberlo pero es inevitable sentir cierta fascinación fantaseando sobre ello. Aún a sabiendas de que tengo el 100% de probabilidades de fallar, no he podido resistir la tentación de conjeturar acerca de cuáles podrían algunas de esas frases en 2027.

  1. “Este coche siempre elige el mismo camino para llevarme hasta a casa, y mira que le he dicho que se salte las estaciones de carga”
  2. “Y me lo confesó todo sin sospechar que le estaba grabando con los ojos”
  3. “En esa room tienes mucho más espacio, es mejor que pasear por el Londres de verdad”
  4. “Dice el coche que me recoge en 10 minutos”
  5. “Me equivoqué de opción y el chino empezó a hablarme en alemán en lugar de en español”
  6. “Acerca más la muñeca que aún no tengo los datos en mi ID”
  7. “Me quiero imprimir una con cinco habitaciones”
  8. “Imprímeme dos hamburguesas que en seguida llego de hacer el check-in en nombre la app de turno”
  9. “Yo también dije que no me implantaría nada debajo de la piel, y mírame ahora!”
  10. “¿Te acuerdas cuando los fingers de pollo los hacían de pollos muertos?”

¿El fin de las pantallas? ..no lo creo.

Deja un comentario

ccimage.jpg

 

En este artículo la ingeniera de Microsoft Dona Sarkar predice el fin de las pantallas y la vuelta a un interface 3D donde toda la interacción con el resto de usuarios se realizará sin renunciar a la tercera dimensión. Comenta que la típica estampa de personas mirando a sus pantallitas desaparecerá de nuestra escena diaria y será sustituida por un espacio virtual dónde, aún no se sabe muy bien como, se nos podrá ver gesticulando dentro de un espacio 3D holográfico . En otras palabras sentencia el fin de las pantallas (llega a afirmar “voy a a quitar las pantallas de sus vidas“) como si éstas hubieran sido un mal necesario debido a una tecnología arcaica que nos obligaba a renunciar a la tercera dimensión.

Dejando a un lado el hecho de que ciertamente las escenas de hileras enteras de personas inclinadas hacia las pantallas de sus dispositivos móviles no deja de ser inquietante y estando de acuerdo de que los avances en 3D e imagen holgráficas pueden tener multitud de aplicaciones, en lo que no concuerdo para nada es la obsolescencia de las pantallas como concepto ni en su desaparición.

Si bien podemos llegar a la conclusión de que para algunas aplicaciones la pantalla puede ser sustituida por otro dispositivo que permita un uso más ventajoso (las conversaciones con avatares 3d de nuestros interlocutores para establecer un ambiente de discusión más enriquecido podría ser un ejemplo), en otras ocasiones  no veo que la adición de la tercera dimensión aporte nada e incluso puede dificultar depende que tareas. Para comenzar hemos de tener en cuenta que las pantallas, como superficie plana para trabajar, no son un invento del siglo XX sino que ya eran utilizadas en la era de las cavernas para representar no sabemos aún muy bien el que, pero con la clara intención de aprovechar la bi-dimensionalidad para representar elementos 3D.

cueva.jpg

Pinturas 2D en Altamira sobre la “pantalla” de la pared de la cueva

Durante siglos miles de artistas, artesanos y científicos han utilizado las posibilidades del 2D donde la eliminación del 3D no sólo no era un problema sino que aportaba muchas ventajas de sintetización y simplificación que en la gran mayoría de ocasiones aportaban un montón de ventajas eliminando el “ruido” que supone toda la información innecesaria que añade el 3D. Los libros, los cuadros, los carteles, las partituras, las fórmulas matemáticas sobre una pizarra no dejan de ser diferentes tipos de pantallas que no necesitan el 3D ¿os imagináis leyendo un texto en 3D, qué ganamos?.

Concretamente en el entorno del arte es dónde se hace más evidente cuando el uso del 3D realmente es necesario y cuando no supone más que una molestia. En disciplinas como la escultura o la danza es evidente que la tercera dimensión tienen un papel fundamental sin embargo en otras como el dibujo, la pintura, la música o la literatura no parece que el 3D tenga mucho que hacer en general. Incluso cuando un artista plástico intenta simular el 3d dentro de una imagen mediante el uso de perspectiva u otros procedimientos no lo hace porque no pueda acceder al 3D pues siempre podría realizar una escultura, sino precisamente por la fascinación que produce la representación de esta tercera dimensión en una superficie plana. Incluso la mayoría de escultores reconocen que el trabajo en la tercera dimensión no es más que una prolongación lógica de la disciplina del dibujo plano. Y es que tanto el 2D como el 3D son dimensiones que se desarrollan dentro de nuestros cerebros que me atrevería a afirmar que son “multidimensionales” pues manejan otras muchas dimensiones aparte de las 3 espaciales. Dentro del vasto universo que representa la mente humana encontramos aplicaciones donde la tercera dimensión realmente aporta un elemento valioso a la existencia y otras donde sencillamente lo plano, el concepto de pantalla es una mejor opción.

Por eso no concuerdo con Dona en lo referente a la idea de revolución holográfica que parece leerse entre líneas dentro de su mensaje. Más bien pienso que dicha tecnología ocupará los nichos dentro del entorno de la comunicación, la ciencia, la educación, el entretenimiento etc. dónde esta tecnología realmente suponga una ventaja diferenciadora y convivirñan armónicamente con la bidimensionalidad y las pantallas. Las pantallas al menos como concepto pienso que tienen todavía una larga vida.

Adobe Project Felix

Deja un comentario

intheforest

Las esferas son sintéticas, el resto fotografía

..

Aunque hace ya algunos días que se presentó y que está disponible para su descarga para todos los subscriptores de Creative Cloud, lo cierto es que hasta ahora no había tenido la oportunidad de probar el nuevo Project Félix debido en parta a las razones que exponía en mi anterior post. Para los que no hayáis oído aún hablar de Project Felix os comentaré rápidamente que se trata de una aplicación, todavía en fase beta, que sirve para crear escenas integrando mallas 3d con fotografía real.

En que consiste

Una de las principales ventajas es que no es necesario tener conocimientos de modelado 3D  -algo que aún hoy echa para atrás a algunos diseñadores-. De hecho su funcionamiento no puede ser más simple, basta con seleccionar una imagen de fondo y arrastrar objetos 3d de una biblioteca que viene incluida o importándolos de archivos externos. Una vez colocados los objetos en el escenario basta con hacer clic en un botón para alinear la vista del plano virtual con la perspectiva de la fotografía y en otro botón para adaptar la iluminación virtual a la iluminación de la propia fotografía.

Por supuesto los objetos se pueden desplazar, girar y cambiar de escala sobre el escenario con unos controles muy fáciles de manejar. También es posible asignarles materiales desde la biblioteca de materiales que se incluye. El resultado es que en apenas un par de minutos podemos componer escenas que combinan elementos sintéticos con imágenes captadas con cámara. Una vez realizada la composición se hace clic en el botón de render y empieza a visualizarse la imagen final. La calidad del resultado es realmente sorprendente como podéis ver en las imágenes que acompañan al post y que son todas experimentos que he estado realizando con la herramienta durante estos días.

Conclusiones

Las sensaciones han sido realmente muy buenas, pero teniendo en cuenta que se trata aún de una versión beta muy provisional. Ésta es la razón por la que se echan de menos muchas funciones que a buen seguro estarán en la versión definitiva y que son imprescindibles para considerar Project Felix una herramienta de creación auténtica. Por todas partes tanto en el interface como en las (pocas) prestaciones disponibles se nota a las claras que se trata únicamente de un experimento para hacer boca a lo que está por venir, eso sí te deja con muchas, muchas ganas de ver la siguiente evolución de la tecnología.

Entre las cosas que más se echan de menos en una primera visita estarían un editor de materiales o la posibilidad de añadir y editar luces personalizadas aparte de los “Presets” que viene con la biblioteca. Tampoco se entiende muy bien que se puedan arrastrar imágenes de fondo desde las bibliotecas de Creative Cloud pero no se puedan arrastrar objetos 3D creados en Photoshop por ejemplo.

Por otro lado, la función de importar objetos 3D a mí no me ha funcionado en ningún momento, es como si la función estuviera desconectada del comando de menú.

La calidad del render es muy buena, especialmente sombras e iluminación, pero lo encuentro aún algo lento incluso con una buena máquina.

Por lo demás estamos ante una herramienta con mucho futuro si se siguen haciendo bien las cosas. El re-cálculo de luces y de punto de vista de plano es sencillamente impresionante, La experiencia de uso del interface también sorprende por su fluidez y facilidad y el tiempo para conseguir un resultado excelente es casi inmediato. En definitiva no puedo negar mi entusiasmo frente a esta herramienta a pesar de todas las cosas que quedan aún por terminar. Estoy seguro que acabará siendo una aplicación (o una extensión de Photoshop) muy pero que muy buena.

Aquí os dejo algunas de las imágenes que he realizado jugando con ella los últimos días.

bottle

imagen realizada únicamente con elementos sintéticos sin imagen fotográfica de fondo

kapoor

Las pajaritas de papel y la botella son sintéticas, el resto imagen real. En esta fotografía me sorprendió especialmente la buena integración de los objetos 3d

rendermuseum

El telón, la esfera y la pelota gigante son elementos sintéticos, el resto es fotografía real

tres

Tres objetos 3d sobre un fondo real

inflatable

Prismas sintéticos sobre paisaje real

Cambio de rol dentro de Adobe

3 comentarios

aem-logo

 

En febrero hará 10 años que soy empleado regular de Adobe aunque me uní como colaborador del equipo de Adobe Ibérica en Noviembre el 2005. Cómo os podréis imaginar durante estos 10 años han cambiado muchas cosas dentro de la oficina a la que pertenezco. Físicamente sigue estando en la misma dirección de Barcelona pero son muchas las caras que han cambiado, personas que han llegado y se han ido, un total de 5 managers diferentes y un montón de eventos alrededor de múltiples países. Quedan muy poquitos del equipo original que había cuando yo me uní pero tengo la satisfacción de haber tenido una magnifica relación con todos ellos y con todos los nuevos miembros que han ido entrando. ¡Quién me iba a decir en aquellos entonces que me iba a acabar convirtiendo en uno de los veteranos!

El caso es que durante todo este tiempo ha habido una cosa que no ha cambiado o lo ha hecho únicamente de forma leve; durante todo este tiempo, como muchos de vosotros sabéis, toda mi actividad se ha movido alrededor de los productos que podemos llamar “creativos” al principio fue alrededor de Creative Suite y más adelante al Creative Cloud cuando se pasó al modo de subscripción. Dentro de mi area de cobertura también he incluido productos como Acrobat, Connect o Captivate, todos ellos los podríamos incluir dentro de la categoría que en Adobe llamamos Digital Media.

Pero en Adobe hay también otra división desde 2012 aproximadamente, con la adquisición de Omniture. Es la llamada división de Digital Marketing que ofrece toda una serie de soluciones que permiten a las empresas acelerar su transición de transformación digital y que consiste en proveer a los clientes no únicamente de la tecnología para crear el contenido sino también para analizar los datos de interacción con las audiencias, optimizar la comunicación con dichas audiencias y optimizar la experiencia de usuario para finalmente rentabilizar al máximo la inversión de cualquier organización, tanto a nivel financiero como estratégico, en el área digital.

Con este fin durante estos años se han ido adquiriendo empresas que han ayudado a colocar a Adobe como un líder en la creación y el tratamiento de la información digital. Entre esas empresas están, aparte de la propia Omniture, Day Software, Efficient Frontier o Neolane que han dado paso a productos como Adobe Analytics, Adobe Campaign o Adobe Experience Manager.

Pues bien, es precisamente de este último producto, Adobe Experience Manager, del que a partir del Enero del próximo año 2017, seré responsable en el papel de técnico pre-venta de la solución. Mi principal rol de trabajo será acompañar a los ejecutivos de cuentas para explicar las ventajas y el valor de negocio de esta solución a todos nuestros potenciales clientes.

En resumen, tras 10 años en el área de Digital Media me paso, por indicación de la compañía, al área de Digital Marketing cubriendo esta solución desde el punto de vista técnico.

Adobe Experience Manager es, explicado de forma breve, una plataforma basada en la máquina virtual Java, que permite la creación de experiencias digitales basadas en web o en aplicaciones móviles. Dicho de otra forma en un increíble gestor de contenido que permite generar sitios web responsivos, multi-sites y multi-idioma o bien aplicaciones nativas para dispositivos móviles. Con este fin la plataforma se divide en diferentes módulos AEM Assets que es el módulo de gestión de activos digitales (DAM), AEM Sites, el módulo para la creación de sitios web, AEM Communities para la gestión de la interacción con usuarios, AEM Forms para la confección avanzada de formularios y AEM Mobile para la creación de aplicaciones móviles.

Este cambio n mi carrera en Adobe lo vivo con una serie de sentimientos enfrentados pues si bien es cierto de que la solución de gestión de contenido de AEM es interesantísima y tiene un montón de recorrido para mejorar así como un montón de aspectos para conocer -y desde ese punto de vista reconozco que estoy bastante ilusionado- por otro lado el hecho de dedicarme a fondo a esta solución forzosamente va a significar dedicar menos tiempo a la parte de Creative Cloud que me sigue apasionando desde el primer día.

Por otra parte lo que no me motiva de esta solución es que es una tecnología enfocada a un grupo restringido y selecto de empresas que tienen unas necesidades muy específicas en el área de transformación digital y con el músculo financiero necesario para poder amortizar la inversión que supone AEM. Esto es algo que no ocurre con Creative Cloud donde el potencial cliente puede ser desde un freelance o un “prosumer” hasta una gran corporación.

Por eso no esperéis ver por el blog una abundancia de artículos acerca de AEM. Aunque lógicamente le dedique alguna entrada, después de 10 años con el blog tengo muy claro que el lector medio de esta bitácora es freelance, entusiasta digital o trabajador creativo en una agencia, así que no tendría mucho sentido extenderse en el conocimiento de una solución que, aunque estoy seguro que a la mayoría os gustaría porque es realmente buena, no ibais a poder utilizarla salvo que tengáis la suerte de trabajar para el departamento de desarrollo y/o diseño de una gran compañía, que aunque puede darse el caso, no creo que sea mayoritario.

En conclusión, cambio mi rol dentro de Adobe pero no esperéis ver muchos cambios en la temática del blog pues, por supuesto no pienso dejar de utilizar ni de seguir mejorando mi conocimiento de las herramientas creativas que son las que realmente me apasionan. En todo caso me costará algo más de esfuerzo encontrar el tiempo para poder mantener la media de 4 entradas mensuales.

En cualquier caso espero poder seguir contando con vuestra fidelidad y vuestra lectura como ha ocurrido a lo largo de estos 10 años.

¡Muchas gracias por estar ahí!

Tecnologías experimentales en Adobe Max

1 comentario

 

En el reciente evento tecnológico Adobe MAX que Adobe celebró hace unos días en San Diego hubieron multitud de sesiones inspiracionales de artistas y creadores de muchos lugares distintos. También se presentaron nuevas tecnologías entre las que destacan alguno proyectos aún en fase experimental que podrán o no incluirse en un futuro en las herramientas de Creative Cloud. En cualquier caso no dejaron a nadie indiferente.

Aquí os presento los vídeos de presentación de dichas tecnologías con una breve explicación de en que consisten.

Vo co

.

Esta tecnología permite analizar la grabación de una persona hablando. Tras ese análisis será posible insertar palabras o incluso frases nuevas tan sólo introduciéndolas a través del teclado y el algoritmo las procesará para pronunciarlas con la misma voz, así que no será necesario que esté la persona que grabó la secuencia original para añadir más texto a la locución. Adobe ha dicho que implementará en este algoritmo elementos que permitan detectar los fragmentos auténticos de aquellos producidos pro vía sintética. De este modo se evita que se haga un uso indebido de la tecnología si cae en las manos equivocadas. Cuando uno escucha el realismo conseguido con este algoritmo se entienden en seguida estas medidas de precaución.

 

Stylit

.

Esta tecnología “captura” un estilo gráfico y lo “mapea” sobre un objeto 3D estático o en movimiento. El procedimiento consiste en sombrear una esfera con diferentes colores que representan las sombras, los medios tonos, las luces el color de fondo y, de forma opcional, los sombras arrojadas. Con esta información el algoritmo re-interpreta el objeto 3d original y lo re-dibuja con las textura, los trazos y los colores del boceto.

Lo más interesante de todo es que el proceso lo realiza a tiempo real así que puedes ir dibujando tu esfera y ver de forma instantánea como tu estilo se mapea sobre el objeto. Desde la página Stylit.org puedes descargarte una demo para hacer pruebas tu miso, eso sí, solamente está disponible para Windows.

 

Clover VR

Clover VR permite editar vídeos panorámicos de realidad virtual directamente con un casco de visualización VR lo que hace que esta tarea sea mucho más rápida y sencilla.

Color Chameleon

.

En esta ocasión se trata de un algoritmo que iguala los colores de varias imágenes presentes en una misma composición, dándole a todo el conjunto un aspecto orgánico con tan sólo un clic. Realmente espectacular

 

Syncmaster

 

.

Modifica una pista musical dividiéndola en tonos altos, medios y bajos y posteriormente introduce “acordes clave” en cada uno de los eventos que detecta en un vídeo como cortes de plano. De esta forma es posible sincronizar el ritmo de la pista de vídeo con un sonido de forma automática y sin esfuerzo. El resultado es sorprendente como podréis comprobar si visualizáis el vídeo.

 

Loopwelder

Simplemente suaviza secuencias de vídeos repetitivos (como un tocadiscos, girando, un pájaro posando en una rama etc) para crear vídeos con bucles infinitos donde la “costura” entre el final y el principio de la secuencia sencillamente desaparece y podemos observar un continuo totalmente fluido.

No hace falta decir que el proceso es automático. Ideal para alargar hasta donde queramos cualquier secuencia de ambiente.

 

Concept Canvas

.

Sin duda una de las tecnologías que más me impresionaron de MAX.  Se trata de crear una composición o layout con rectángulos que representen los elementos que queremos que aparezcan en la imagen, personas. animales u objetos. En base a ese layout el algoritmo buscará en Adobe Stock fotografías donde aparezcan esos elementos en las posiciones relativas que se indican en la composición. Increible. No es de extrañar que esta tecnología arrancara una ovación de la audiencia.

 

Intervector

Un nuevo modo de vectorizar fotografías pero a diferencia del trazado de illustrator o de Adobe Capture este nuevo algoritmo permite un mayor control sobre la forma en como se crean los trazos. El método incluye controles automáticos, semi automáticos y manuales que proporcionan resultados limpios.

Wetbrush

.

 

Espectacular, sencillamente espectacular es la mejor forma de calificar esta increíble herramienta. Ya de pos sí es sorprendente ver el modo en como los colores se mezclan con total naturalidad a través del “pincel virtual” que aparece en pantalla y que respeta los movimientos que el artista hace con el stylus, pero lo más increíble es ver como dicha herramienta no únicamente crea pixeles de color sino que también “modela” una malla 3D que simula la pasta de la pintura. Al finalizar el dibujo es posible incliner el lienzo para ver como la luz ambiente interactúa con la textura, pero lo mejor de todo es que mediante la impresora 3D adecuada podremos imprimir el dibujo incluyendo el relieve de la pintura. ¿A que es alucinante? 😀

 

Quick Layout

Este algoritmo permite arrastrar imágenes a una zona determinada dentro de una composición y re-organizar todo para acomodar a las nuevas imágenes que se insertan. No importa si modificamos el tamaño o la posición de la caja, si añadimos o eliminamos imágenes de su interior, esta utilidad siempre encontrará un modo de re-ubicar el contenido. Se trata pues de una gran ayuda a la productividad.

 

Skyreplace

Nada más y nada menos que una utilidad que detecta el cielo dentro de una imagen de paisaje y lo sustituye por cualquier otro cielo y no me refiero solamente a que coloca una imagen en lugar de otra sino que también modifica la iluminación del resto de la imagen para que sea coherente con la iluminación del nuevo cielo.

Y estas fueron algunas de las principales novedades que se presentaron en MAX. Ahora solamente queda estar atentos para ver cuando las incorporan a nuestras herramientas favoritas.

Older Entries