Inicio

¿El fin de las pantallas? ..no lo creo.

Deja un comentario

ccimage.jpg

 

En este artículo la ingeniera de Microsoft Dona Sarkar predice el fin de las pantallas y la vuelta a un interface 3D donde toda la interacción con el resto de usuarios se realizará sin renunciar a la tercera dimensión. Comenta que la típica estampa de personas mirando a sus pantallitas desaparecerá de nuestra escena diaria y será sustituida por un espacio virtual dónde, aún no se sabe muy bien como, se nos podrá ver gesticulando dentro de un espacio 3D holográfico . En otras palabras sentencia el fin de las pantallas (llega a afirmar “voy a a quitar las pantallas de sus vidas“) como si éstas hubieran sido un mal necesario debido a una tecnología arcaica que nos obligaba a renunciar a la tercera dimensión.

Dejando a un lado el hecho de que ciertamente las escenas de hileras enteras de personas inclinadas hacia las pantallas de sus dispositivos móviles no deja de ser inquietante y estando de acuerdo de que los avances en 3D e imagen holgráficas pueden tener multitud de aplicaciones, en lo que no concuerdo para nada es la obsolescencia de las pantallas como concepto ni en su desaparición.

Si bien podemos llegar a la conclusión de que para algunas aplicaciones la pantalla puede ser sustituida por otro dispositivo que permita un uso más ventajoso (las conversaciones con avatares 3d de nuestros interlocutores para establecer un ambiente de discusión más enriquecido podría ser un ejemplo), en otras ocasiones  no veo que la adición de la tercera dimensión aporte nada e incluso puede dificultar depende que tareas. Para comenzar hemos de tener en cuenta que las pantallas, como superficie plana para trabajar, no son un invento del siglo XX sino que ya eran utilizadas en la era de las cavernas para representar no sabemos aún muy bien el que, pero con la clara intención de aprovechar la bi-dimensionalidad para representar elementos 3D.

cueva.jpg

Pinturas 2D en Altamira sobre la “pantalla” de la pared de la cueva

Durante siglos miles de artistas, artesanos y científicos han utilizado las posibilidades del 2D donde la eliminación del 3D no sólo no era un problema sino que aportaba muchas ventajas de sintetización y simplificación que en la gran mayoría de ocasiones aportaban un montón de ventajas eliminando el “ruido” que supone toda la información innecesaria que añade el 3D. Los libros, los cuadros, los carteles, las partituras, las fórmulas matemáticas sobre una pizarra no dejan de ser diferentes tipos de pantallas que no necesitan el 3D ¿os imagináis leyendo un texto en 3D, qué ganamos?.

Concretamente en el entorno del arte es dónde se hace más evidente cuando el uso del 3D realmente es necesario y cuando no supone más que una molestia. En disciplinas como la escultura o la danza es evidente que la tercera dimensión tienen un papel fundamental sin embargo en otras como el dibujo, la pintura, la música o la literatura no parece que el 3D tenga mucho que hacer en general. Incluso cuando un artista plástico intenta simular el 3d dentro de una imagen mediante el uso de perspectiva u otros procedimientos no lo hace porque no pueda acceder al 3D pues siempre podría realizar una escultura, sino precisamente por la fascinación que produce la representación de esta tercera dimensión en una superficie plana. Incluso la mayoría de escultores reconocen que el trabajo en la tercera dimensión no es más que una prolongación lógica de la disciplina del dibujo plano. Y es que tanto el 2D como el 3D son dimensiones que se desarrollan dentro de nuestros cerebros que me atrevería a afirmar que son “multidimensionales” pues manejan otras muchas dimensiones aparte de las 3 espaciales. Dentro del vasto universo que representa la mente humana encontramos aplicaciones donde la tercera dimensión realmente aporta un elemento valioso a la existencia y otras donde sencillamente lo plano, el concepto de pantalla es una mejor opción.

Por eso no concuerdo con Dona en lo referente a la idea de revolución holográfica que parece leerse entre líneas dentro de su mensaje. Más bien pienso que dicha tecnología ocupará los nichos dentro del entorno de la comunicación, la ciencia, la educación, el entretenimiento etc. dónde esta tecnología realmente suponga una ventaja diferenciadora y convivirñan armónicamente con la bidimensionalidad y las pantallas. Las pantallas al menos como concepto pienso que tienen todavía una larga vida.

Adobe Project Felix

Deja un comentario

intheforest

Las esferas son sintéticas, el resto fotografía

..

Aunque hace ya algunos días que se presentó y que está disponible para su descarga para todos los subscriptores de Creative Cloud, lo cierto es que hasta ahora no había tenido la oportunidad de probar el nuevo Project Félix debido en parta a las razones que exponía en mi anterior post. Para los que no hayáis oído aún hablar de Project Felix os comentaré rápidamente que se trata de una aplicación, todavía en fase beta, que sirve para crear escenas integrando mallas 3d con fotografía real.

En que consiste

Una de las principales ventajas es que no es necesario tener conocimientos de modelado 3D  -algo que aún hoy echa para atrás a algunos diseñadores-. De hecho su funcionamiento no puede ser más simple, basta con seleccionar una imagen de fondo y arrastrar objetos 3d de una biblioteca que viene incluida o importándolos de archivos externos. Una vez colocados los objetos en el escenario basta con hacer clic en un botón para alinear la vista del plano virtual con la perspectiva de la fotografía y en otro botón para adaptar la iluminación virtual a la iluminación de la propia fotografía.

Por supuesto los objetos se pueden desplazar, girar y cambiar de escala sobre el escenario con unos controles muy fáciles de manejar. También es posible asignarles materiales desde la biblioteca de materiales que se incluye. El resultado es que en apenas un par de minutos podemos componer escenas que combinan elementos sintéticos con imágenes captadas con cámara. Una vez realizada la composición se hace clic en el botón de render y empieza a visualizarse la imagen final. La calidad del resultado es realmente sorprendente como podéis ver en las imágenes que acompañan al post y que son todas experimentos que he estado realizando con la herramienta durante estos días.

Conclusiones

Las sensaciones han sido realmente muy buenas, pero teniendo en cuenta que se trata aún de una versión beta muy provisional. Ésta es la razón por la que se echan de menos muchas funciones que a buen seguro estarán en la versión definitiva y que son imprescindibles para considerar Project Felix una herramienta de creación auténtica. Por todas partes tanto en el interface como en las (pocas) prestaciones disponibles se nota a las claras que se trata únicamente de un experimento para hacer boca a lo que está por venir, eso sí te deja con muchas, muchas ganas de ver la siguiente evolución de la tecnología.

Entre las cosas que más se echan de menos en una primera visita estarían un editor de materiales o la posibilidad de añadir y editar luces personalizadas aparte de los “Presets” que viene con la biblioteca. Tampoco se entiende muy bien que se puedan arrastrar imágenes de fondo desde las bibliotecas de Creative Cloud pero no se puedan arrastrar objetos 3D creados en Photoshop por ejemplo.

Por otro lado, la función de importar objetos 3D a mí no me ha funcionado en ningún momento, es como si la función estuviera desconectada del comando de menú.

La calidad del render es muy buena, especialmente sombras e iluminación, pero lo encuentro aún algo lento incluso con una buena máquina.

Por lo demás estamos ante una herramienta con mucho futuro si se siguen haciendo bien las cosas. El re-cálculo de luces y de punto de vista de plano es sencillamente impresionante, La experiencia de uso del interface también sorprende por su fluidez y facilidad y el tiempo para conseguir un resultado excelente es casi inmediato. En definitiva no puedo negar mi entusiasmo frente a esta herramienta a pesar de todas las cosas que quedan aún por terminar. Estoy seguro que acabará siendo una aplicación (o una extensión de Photoshop) muy pero que muy buena.

Aquí os dejo algunas de las imágenes que he realizado jugando con ella los últimos días.

bottle

imagen realizada únicamente con elementos sintéticos sin imagen fotográfica de fondo

kapoor

Las pajaritas de papel y la botella son sintéticas, el resto imagen real. En esta fotografía me sorprendió especialmente la buena integración de los objetos 3d

rendermuseum

El telón, la esfera y la pelota gigante son elementos sintéticos, el resto es fotografía real

tres

Tres objetos 3d sobre un fondo real

inflatable

Prismas sintéticos sobre paisaje real

Cambio de rol dentro de Adobe

3 comentarios

aem-logo

 

En febrero hará 10 años que soy empleado regular de Adobe aunque me uní como colaborador del equipo de Adobe Ibérica en Noviembre el 2005. Cómo os podréis imaginar durante estos 10 años han cambiado muchas cosas dentro de la oficina a la que pertenezco. Físicamente sigue estando en la misma dirección de Barcelona pero son muchas las caras que han cambiado, personas que han llegado y se han ido, un total de 5 managers diferentes y un montón de eventos alrededor de múltiples países. Quedan muy poquitos del equipo original que había cuando yo me uní pero tengo la satisfacción de haber tenido una magnifica relación con todos ellos y con todos los nuevos miembros que han ido entrando. ¡Quién me iba a decir en aquellos entonces que me iba a acabar convirtiendo en uno de los veteranos!

El caso es que durante todo este tiempo ha habido una cosa que no ha cambiado o lo ha hecho únicamente de forma leve; durante todo este tiempo, como muchos de vosotros sabéis, toda mi actividad se ha movido alrededor de los productos que podemos llamar “creativos” al principio fue alrededor de Creative Suite y más adelante al Creative Cloud cuando se pasó al modo de subscripción. Dentro de mi area de cobertura también he incluido productos como Acrobat, Connect o Captivate, todos ellos los podríamos incluir dentro de la categoría que en Adobe llamamos Digital Media.

Pero en Adobe hay también otra división desde 2012 aproximadamente, con la adquisición de Omniture. Es la llamada división de Digital Marketing que ofrece toda una serie de soluciones que permiten a las empresas acelerar su transición de transformación digital y que consiste en proveer a los clientes no únicamente de la tecnología para crear el contenido sino también para analizar los datos de interacción con las audiencias, optimizar la comunicación con dichas audiencias y optimizar la experiencia de usuario para finalmente rentabilizar al máximo la inversión de cualquier organización, tanto a nivel financiero como estratégico, en el área digital.

Con este fin durante estos años se han ido adquiriendo empresas que han ayudado a colocar a Adobe como un líder en la creación y el tratamiento de la información digital. Entre esas empresas están, aparte de la propia Omniture, Day Software, Efficient Frontier o Neolane que han dado paso a productos como Adobe Analytics, Adobe Campaign o Adobe Experience Manager.

Pues bien, es precisamente de este último producto, Adobe Experience Manager, del que a partir del Enero del próximo año 2017, seré responsable en el papel de técnico pre-venta de la solución. Mi principal rol de trabajo será acompañar a los ejecutivos de cuentas para explicar las ventajas y el valor de negocio de esta solución a todos nuestros potenciales clientes.

En resumen, tras 10 años en el área de Digital Media me paso, por indicación de la compañía, al área de Digital Marketing cubriendo esta solución desde el punto de vista técnico.

Adobe Experience Manager es, explicado de forma breve, una plataforma basada en la máquina virtual Java, que permite la creación de experiencias digitales basadas en web o en aplicaciones móviles. Dicho de otra forma en un increíble gestor de contenido que permite generar sitios web responsivos, multi-sites y multi-idioma o bien aplicaciones nativas para dispositivos móviles. Con este fin la plataforma se divide en diferentes módulos AEM Assets que es el módulo de gestión de activos digitales (DAM), AEM Sites, el módulo para la creación de sitios web, AEM Communities para la gestión de la interacción con usuarios, AEM Forms para la confección avanzada de formularios y AEM Mobile para la creación de aplicaciones móviles.

Este cambio n mi carrera en Adobe lo vivo con una serie de sentimientos enfrentados pues si bien es cierto de que la solución de gestión de contenido de AEM es interesantísima y tiene un montón de recorrido para mejorar así como un montón de aspectos para conocer -y desde ese punto de vista reconozco que estoy bastante ilusionado- por otro lado el hecho de dedicarme a fondo a esta solución forzosamente va a significar dedicar menos tiempo a la parte de Creative Cloud que me sigue apasionando desde el primer día.

Por otra parte lo que no me motiva de esta solución es que es una tecnología enfocada a un grupo restringido y selecto de empresas que tienen unas necesidades muy específicas en el área de transformación digital y con el músculo financiero necesario para poder amortizar la inversión que supone AEM. Esto es algo que no ocurre con Creative Cloud donde el potencial cliente puede ser desde un freelance o un “prosumer” hasta una gran corporación.

Por eso no esperéis ver por el blog una abundancia de artículos acerca de AEM. Aunque lógicamente le dedique alguna entrada, después de 10 años con el blog tengo muy claro que el lector medio de esta bitácora es freelance, entusiasta digital o trabajador creativo en una agencia, así que no tendría mucho sentido extenderse en el conocimiento de una solución que, aunque estoy seguro que a la mayoría os gustaría porque es realmente buena, no ibais a poder utilizarla salvo que tengáis la suerte de trabajar para el departamento de desarrollo y/o diseño de una gran compañía, que aunque puede darse el caso, no creo que sea mayoritario.

En conclusión, cambio mi rol dentro de Adobe pero no esperéis ver muchos cambios en la temática del blog pues, por supuesto no pienso dejar de utilizar ni de seguir mejorando mi conocimiento de las herramientas creativas que son las que realmente me apasionan. En todo caso me costará algo más de esfuerzo encontrar el tiempo para poder mantener la media de 4 entradas mensuales.

En cualquier caso espero poder seguir contando con vuestra fidelidad y vuestra lectura como ha ocurrido a lo largo de estos 10 años.

¡Muchas gracias por estar ahí!

Tecnologías experimentales en Adobe Max

1 comentario

 

En el reciente evento tecnológico Adobe MAX que Adobe celebró hace unos días en San Diego hubieron multitud de sesiones inspiracionales de artistas y creadores de muchos lugares distintos. También se presentaron nuevas tecnologías entre las que destacan alguno proyectos aún en fase experimental que podrán o no incluirse en un futuro en las herramientas de Creative Cloud. En cualquier caso no dejaron a nadie indiferente.

Aquí os presento los vídeos de presentación de dichas tecnologías con una breve explicación de en que consisten.

Vo co

.

Esta tecnología permite analizar la grabación de una persona hablando. Tras ese análisis será posible insertar palabras o incluso frases nuevas tan sólo introduciéndolas a través del teclado y el algoritmo las procesará para pronunciarlas con la misma voz, así que no será necesario que esté la persona que grabó la secuencia original para añadir más texto a la locución. Adobe ha dicho que implementará en este algoritmo elementos que permitan detectar los fragmentos auténticos de aquellos producidos pro vía sintética. De este modo se evita que se haga un uso indebido de la tecnología si cae en las manos equivocadas. Cuando uno escucha el realismo conseguido con este algoritmo se entienden en seguida estas medidas de precaución.

 

Stylit

.

Esta tecnología “captura” un estilo gráfico y lo “mapea” sobre un objeto 3D estático o en movimiento. El procedimiento consiste en sombrear una esfera con diferentes colores que representan las sombras, los medios tonos, las luces el color de fondo y, de forma opcional, los sombras arrojadas. Con esta información el algoritmo re-interpreta el objeto 3d original y lo re-dibuja con las textura, los trazos y los colores del boceto.

Lo más interesante de todo es que el proceso lo realiza a tiempo real así que puedes ir dibujando tu esfera y ver de forma instantánea como tu estilo se mapea sobre el objeto. Desde la página Stylit.org puedes descargarte una demo para hacer pruebas tu miso, eso sí, solamente está disponible para Windows.

 

Clover VR

Clover VR permite editar vídeos panorámicos de realidad virtual directamente con un casco de visualización VR lo que hace que esta tarea sea mucho más rápida y sencilla.

Color Chameleon

.

En esta ocasión se trata de un algoritmo que iguala los colores de varias imágenes presentes en una misma composición, dándole a todo el conjunto un aspecto orgánico con tan sólo un clic. Realmente espectacular

 

Syncmaster

 

.

Modifica una pista musical dividiéndola en tonos altos, medios y bajos y posteriormente introduce “acordes clave” en cada uno de los eventos que detecta en un vídeo como cortes de plano. De esta forma es posible sincronizar el ritmo de la pista de vídeo con un sonido de forma automática y sin esfuerzo. El resultado es sorprendente como podréis comprobar si visualizáis el vídeo.

 

Loopwelder

Simplemente suaviza secuencias de vídeos repetitivos (como un tocadiscos, girando, un pájaro posando en una rama etc) para crear vídeos con bucles infinitos donde la “costura” entre el final y el principio de la secuencia sencillamente desaparece y podemos observar un continuo totalmente fluido.

No hace falta decir que el proceso es automático. Ideal para alargar hasta donde queramos cualquier secuencia de ambiente.

 

Concept Canvas

.

Sin duda una de las tecnologías que más me impresionaron de MAX.  Se trata de crear una composición o layout con rectángulos que representen los elementos que queremos que aparezcan en la imagen, personas. animales u objetos. En base a ese layout el algoritmo buscará en Adobe Stock fotografías donde aparezcan esos elementos en las posiciones relativas que se indican en la composición. Increible. No es de extrañar que esta tecnología arrancara una ovación de la audiencia.

 

Intervector

Un nuevo modo de vectorizar fotografías pero a diferencia del trazado de illustrator o de Adobe Capture este nuevo algoritmo permite un mayor control sobre la forma en como se crean los trazos. El método incluye controles automáticos, semi automáticos y manuales que proporcionan resultados limpios.

Wetbrush

.

 

Espectacular, sencillamente espectacular es la mejor forma de calificar esta increíble herramienta. Ya de pos sí es sorprendente ver el modo en como los colores se mezclan con total naturalidad a través del “pincel virtual” que aparece en pantalla y que respeta los movimientos que el artista hace con el stylus, pero lo más increíble es ver como dicha herramienta no únicamente crea pixeles de color sino que también “modela” una malla 3D que simula la pasta de la pintura. Al finalizar el dibujo es posible incliner el lienzo para ver como la luz ambiente interactúa con la textura, pero lo mejor de todo es que mediante la impresora 3D adecuada podremos imprimir el dibujo incluyendo el relieve de la pintura. ¿A que es alucinante? 😀

 

Quick Layout

Este algoritmo permite arrastrar imágenes a una zona determinada dentro de una composición y re-organizar todo para acomodar a las nuevas imágenes que se insertan. No importa si modificamos el tamaño o la posición de la caja, si añadimos o eliminamos imágenes de su interior, esta utilidad siempre encontrará un modo de re-ubicar el contenido. Se trata pues de una gran ayuda a la productividad.

 

Skyreplace

Nada más y nada menos que una utilidad que detecta el cielo dentro de una imagen de paisaje y lo sustituye por cualquier otro cielo y no me refiero solamente a que coloca una imagen en lugar de otra sino que también modifica la iluminación del resto de la imagen para que sea coherente con la iluminación del nuevo cielo.

Y estas fueron algunas de las principales novedades que se presentaron en MAX. Ahora solamente queda estar atentos para ver cuando las incorporan a nuestras herramientas favoritas.

La eliminación de botones y la asunción de riesgos

Deja un comentario

botonera

.

Esta mañana la llegar a mi oficina me he encontrado con algo que cada vez es más habitual; la botonera del ascensor había sido sustituida por un sólo panel táctil sobre el que se proyectaba la imagen de una botonera virtual. Dicha sustitución integral de botoneras por pantallas táctiles fue popularizada hace ya algunos años por Apple con su iPhone y desde entonces hasta ahora esta práctica se ha extendido no únicamente a las botoneras de los teléfonos sino también a las de cajeros automáticos, paneles de máquinas dispensadoras,  televisores y consolas de mandos de toda suerte de electrodomésticos (hasta se dice que el volante, las palancas y los pedales de un automóvil serán sustituidos por una tablet en los futuros vehículos autónomos).

Esta tendencia tecnológica no solamente permite presagiar un futuro cercano donde los relieves de los mandos de las máquinas serán sustituidos por suaves y uniformes paneles planos (todas las máquinas tenderán a parecer cajas) sino que también plantean ciertas cuestiones que no dejan se de inquietantes. Hasta ahora cuando si se estropeaba, averiaba o deterioraba un botón dentro de una botonera dejaba de estar disponible la función correspondiente a ese botón pero seguían estando disponible el resto; en el ejemplo de la botonera de ascensor, si se estropea el botón de la plata tercera, aún puedo pulsar el botón de la plant cuarta y bajar una planta andando, pero ¿qué pasa si falla el panel? pues que sencillamente todo deja de funcionar.

Y no me refiero necesariamente a un daño en el panel táctil, basta con que el software que reproduce el teclado virtual tenga algún fallo para que todo se vaya al car… Ahora imaginad este ejemplo aplicado a todas posibles situaciones donde la mecánica de los instrumentos de mandos sean sustituidos por la electrónica de los interfaces táctiles.

Y es que no hay que olvidar que el incremento de la complejidad en cualquier sistema, incluido el de los dispositivos electrónicos, si bien permiten mejorar las capacidades de dicho sistema también lo hace mucho más sensible y vulnerable a los fallos lo cual quiere decir que hemos de estar preparados para asumir más riesgos. Y..que queréis que os diga, eso es algo que veo con cierta preocupación. Me refiero a la “ceguera” que produce en una máquina la avería de su panel táctil y que la convierte automáticamente en una caja inservible.

Manipulación visual generativa e interactiva de imagen

Deja un comentario

.

La tecnología sigue avanzando a grandes pasos especialmente en el campo de la imagen digital. En Adobe somos conscientes de este hecho y es por ello que la empresa da mucha importancia a  la innovación en sus desarrollos para poder seguir manteniendo el liderazgo actual en el ámbito de las soluciones creativas.

La estrategia pasa no únicamente en invertir recursos en los equipos internos de ingeniería sino también en realizar alianzas estratégicas con centros de investigación y universidades como la que recientemente se ha establecido con la universidad de Berkeley para desarrollar un nuevo algoritmo de reconocimiento y edición de imagen que seguro que no te dejará indiferente. Echad un vistazo al vídeo que ilustra el post para entender de que estoy hablando.

El equipo de desarrollo de estas nuevas herramientas está compuesto por.

¿Qué os parece? A mí desde luego me ha impresionado mucho.

Ignoro si se realizará algún Preview de este proyecto en el próximo MAX que se celebra dentro de pocos días, pero estaría realmente bien.

CyborgNest North Sense

1 comentario

screen-shot-2016-09-19-at-11-24-45

.

En más de una ocasión he afirmado que  los objetivos de la tecnología cibernética no deberían limitarse a eliminar discapacidades en un individuo mediante la creación de prótesis biónicas como brazos, manos o piernas sino también a ayudar a mejorar las capacidades de nuestro cuerpo físico mediante la adición de nuevas funciones y “sentidos” que nos permitir extender las posibilidades de nuestro cuerpo.

Esta idea que quizá alguien pueda pensar arrogante o soberbia no es para nada novedosa. Durante toda la historia el hombre ha tratado, y en muchos casos conseguido, superar las limitaciones de su cuerpo natural, desde la propia ropa que vestimos hasta toda la colección de herramientas que hemos inventado tienen ese fin. Ni siquiera la idea de ampliar nuestras posibilidades mediante la tecnología cibernética es nueva. Con la popularización del uso de smartphone el común de los ciudadanos ha adquirirdo “poderes” que nuestros antepasados ni tan siquiera eran capaces de soñar. Podemos acceder a una cantidad ingente de información al instante como si lleváramos constantemente una biblioteca o un oráculo a nuestro lado, podemos comunicarnos con personas en casi cualquier lugar del mundo desde casi cualquier parte, podemos saber que tal les va a personajes famosos (y no tan famosos) casi a tiempo real y tenemos a una especie de “duende” que, en forma de GPS, nos dice por donde tenemos que ir para llegar a cualquier parte. Que esto sea algo que nos parezca normal hoy día por su uso habitual no quiere decir que se traten de capacidades asombrosas y casi milagrosas vistas en perspectiva.

Pues bien, desde este marco conceptual donde le damos la bienvenida a “North Sense” un proyecto liderado por el Cyborg Neil Harbisson que pretende aumentar nuestras capacidades añadiéndonos un sentido más a los cinco ya existentes. En este caso se trata de un pequeño aparato, bautizado como North Sense, que cabe en la palma de la mano y que puede adherirse fácilmente a cualquier parte de nuestro cuerpo. Con dicho dispositivo  sentiremos una vibración cada vez que nuestro cuerpo esté orientado hacia el norte, imitando así la capacidad innata que tienen muchas especies en el reino animal y que, según parece, nuestra propia especie también tuvo en alguna medida antes de que nuestros cachivaches electrónicos permitieran su total atrofia.

Ya está disponible en pre-venta por un precio de 350€ que podemos considerar razonable para aquellas personas que puedan sacar provecho de este nuevo sentido (exploradores, deportistas de alta montaña, marineros…) y quieran comprometerse con su evolución particular coo individuo hacia otro estadio de organismo ciborg. Esperemos que esta sea la primera de muchas iniciativas que tengan como fin el mejoramiento de la especie y la transición de la condición humana a la condición trans-humana.

Más infomación en http://www.cyborgnest.net/

 

Older Entries