La IA de Photoshop por fin funciona como queríamos. Se acabó perder más tiempo editando fotos

La IA de Photoshop por fin funciona como queríamos. Se acabó perder más tiempo editando fotos

Adobe hace un buen tiempo ya que decidió abrazar la inteligencia artificial a través de su catálogo de servicios. Por un lado tiene a Firefly, su modelo de IA que nos permite generar imágenes en múltiples estilos y de forma completamente gratuita. Además de ello, la posibilidad de editar y generar imágenes con IA también está disponible desde toda su suite de aplicaciones, como es el caso de Photoshop.

Recientemente, la firma ha dado a conocer nuevas herramientas centradas en este aspecto. Y es que a través de su conferencia anual Adobe Max, la compañía ha mostrado nuevas herramientas centradas en IA para Illustrator, Premiere Pro e InDesign. Junto a ello, también llegan novedades a Firefly con un modelo más potente y otras características de IA para Photoshop. Bajo estas líneas te contamos lo más destacado.

La IA se extiende aún más en las herramientas de Adobe

Una de las novedades que más van a agradecer los usuarios en torno a las herramientas de IA de Adobe es la mejora de su herramienta de borrado con IA. Y es que ya no tendremos que perder tiempo en detectar y eliminar distracciones de la imagen, ya que con tan solo un botón, la herramienta analizará la imagen por nosotros y borrará todo lo que sea necesario o quede “feo”.

Adobe

Imagen: Adobe

Esta característica se encuentra ya disponible para Photoshop en escritorio y en su aplicación web, aunque Adobe nos anima a estar atentos a las próximas novedades en torno a esta herramienta, pues no sería lo único que descubramos sobre este borrado mágico.

Los usuarios de Photoshop pueden además seleccionar si quieren utilizar IA generativa para la herramienta de borrado, o si prefieren delegar la tarea a una tecnología que no usa IA generativa. También hay una tercera opción que selecciona automáticamente la tecnología en base a la imagen y a la escena para “producir los mejores resultados”.

Adobe

Entre otras tecnologías que ya se incluyen en Photoshop, ahora las funciones de ‘Relleno Generativo’, ‘Ampliación Generativa’, ‘Generar Similar’ y ‘Generar Fondo’ ya se encuentran disponibles para todo el mundo, actualizándose además con el modelo de IA FireFly 3, el cual fue lanzado en beta el pasado mes de abril. Desde Adobe afirman que esta actualización mejora la variedad y el estilo fotorrealista de los resultados, además de comprender prompts más complejos. En cuanto a Photoshop web, la herramienta también ha obtenido una opción de IA para editar más fácil mediante la selección automática de objetos en una imagen.

Relleno

Relleno Generativo con Firefly 3 vs Firefly 1. Imagen: Adobe

En lo que respecta a Adobe Illustrator, la herramienta se ha actualizado con la función de ‘Objetos en Trayectoria’, la cual permite a los usuarios adjuntar, organizar y mover rápidamente un objeto a lo largo de cualquier trayectoria del tablero de dibujo. Esto da a los diseñadores más flexibilidad a la hora de alinear áreas de su trabajo. Junto a ello, ‘Project Neo’, una herramienta experimental que se mostró en la conferencia del año pasado, también está ahora disponible en beta, pudiendo escenificar diseños de un modelo 3D. Además, ‘Vector Model’, que permite a los diseñadores ahorrar tiempo al poder añadir rápidamente vectores a las formas para crear diseños, también llega a la herramienta.

Video adobe

Generación de vídeo en Firefly. Imagen: Adobe

Cabe destacar que, la herramienta de ‘Ampliación Generativa’ que se encuentra disponible en Photoshop, también llega a todo el mundo en InDesign. Esto permite a los usuarios extender cualquier imagen mediante el uso de IA para que encajen en cualquier zona del diseño. Junto a otras novedades, Firefly AI Video, que es el modelo de generación de vídeo por IA de Adobe, introduce la herramienta de ‘Extensión Generativa’ a Premiere Pro. De momento está en beta, pero todo indica a que este modelo podría utilizarse como base para otras características de las apps de Adobe Creative Cloud próximamente.

Imagen de portada | Adobe

Más información | Adobe

En Genbeta | Estos cinco trabajos no existían hace una década y ahora son un filón por su alta demanda


La noticia

La IA de Photoshop por fin funciona como queríamos. Se acabó perder más tiempo editando fotos

fue publicada originalmente en

Genbeta

por
Antonio Vallejo

.

Sora, guía a fondo: qué es, cómo funciona y lo mejor que puedes hacer con el ‘ChatGPT’ generador de vídeos de OpenAI

Sora, guía a fondo: qué es, cómo funciona y lo mejor que puedes hacer con el 'ChatGPT' generador de vídeos de OpenAI

En estos días en los que Google dejaba atrás Bard en favor de Gemini y podíamos ver los últimos logros de su inteligencia artificial, OpenAI ha dado un golpe encima de la mesa demostrando que en la carrera de la IA, la empresa va por delante de la competencia, al menos en cuanto a resultados y proyectos se refiere. Qué mejor ejemplo que Sora, su última creación.

Tanto si ya has oído hablar de Sora como si es tu primera vez y no tienes muy claro qué puede hacer, su funcionamiento o simple y llanamente, cómo y cuándo podrás probarla, en este artículo recopilamos y resumimos lo más importante de Sora, la impresionante nueva inteligencia artificial de OpenAI diseñada para crear vídeos.

Qué es Sora y cómo funciona

Como el ínclito ChatGPT o DALL-E, Sora es un modelo generativo con inteligencia artificial creado por OpenAI capaz de generar vídeos cortos de hasta 60 segundos a partir de una descripción de texto. Es decir, que tú le escribes lo que quieres crear, lo envías y ella se encarga de todo lo demás.

Una de las claves es que puedes emplear lenguaje natural como el que usarías con una persona cualquiera y Sora te entenderá, ya que ha sido entrenada para ello. Así, permite que introduzcas prompts con instrucciones con todo lujo de detalles sobre los personajes, el tipo de movimiento o la ambientación. Obviamente, también dependerá de tu experiencia y pericia redactando estos comandos.

Su funcionamiento es similar a otros sistemas que hemos visto que pasan de texto a imágenes como el propio DALL-E o MidJourney, pero en este caso generando imágenes en movimiento. No es la primera vez que vemos algo similar, ya que ya existen otras herramientas similares como Pika o Runway, pero sus resultados difieren notablemente. De hecho, el resultado es un vídeo tan detallado y realista que a veces cuesta distinguirlo de uno hecho a la vieja usanza.

Para conseguirlo cuenta con un entrenamiento exhaustivo e intensivo detrás conformado por un extenso catálogo de vídeos. La pregunta del millón es: ¿de dónde los ha sacado?. La práctica de usar vídeos sin permiso ya se ha traducido en demandas importantes contra OpenAI, que parece preferir pedir perdón que permiso. Su base se inspira en los Grandes Modelos de Lenguaje (LLMs), pero en lugar de Tokens, emplea zonas visuales (visual patches). Así, convierte en vídeos la compresión y descompresión de esas zonas de forma consecutiva a lo largo del tiempo. Para implementar el entendimiento del lenguaje, han empleado las mismas que para DALL – E 3.

Visuak

Esto lo ha conseguido porque es un modelo entrenado con una enorme biblioteca de vídeos, de forma que sabe reconocer movimientos, descripciones y cualquier cosa que le pidas, y será capaz de recrearlos en vídeo. Sabrá a lo que te refieres cuando le hables de tipos de personas, de vestimenta, de accesorios o de efectos visuales.

Así de increíble ha sido la evolución de la IA para generar vídeos en solo un año: Sora vuelve a repetir lo que hizo ChatGPT

En Genbeta

Así de increíble ha sido la evolución de la IA para generar vídeos en solo un año: Sora vuelve a repetir lo que hizo ChatGPT

Cómo probar Sora

Aunque Sora se ha anunciado y ya hemos podido verlo en acción, OpenAI explica que todabía se encuentra en fase de formación del equipo rojo. ¿Qué significa exactamente? Que está siendo sometido a pruebas complejas y controvertidas para asegurarse de que no genere contenido dañino o inapropiado.

No obstante, OpenAI también proporciona acceso limitado a una serie de personas compuesta por artistas visuales, diseñadores o cineastas para recibir su feedback y así mejorar el modelo para que sea más útil para profesionales del área creativa. En teoría, una buena medida para que sea vista como una herramienta para beneficiarse de ella en el proceso creativo y no como una amenaza.

Eso sí, por el momento desconocemos cuándo Sora será lanzado oficialmente para uso público y empresarial.

Lo mejor que puedes hacer con Sora

Teniendo en cuenta que no hemos podido meterle mano al estar restringido y que las demos de OpenAI dejan con ganas de más, el CEO de la empresa se ofreció a poner a prueba el software con prompts propuestos al momento por otras personas en X/Twitter. Aquí tienes algunos de los mejores:

Un mago con un sombrero de punta y una túnica azul con estrellas blancas lanzando un hechizo que dispara un rayo desde su mano y sostiene un viejo tomo en la otra mano

Captura De Pantalla 2024 02 17 A Las 10 10 51

Un mitad pato, mitad dragón vuela a través de una hermosa puesta de sol con un hámster vestido con equipo de aventura en su espalda

Captura De Pantalla 2024 02 17 A Las 10 13 12

Altman vuelve a introducir el prompt para obtener un vídeo todavía mejor:

Captura De Pantalla 2024 02 17 A Las 10 15 54

Un recorrido a pie de calle por una ciudad futurista en armonía con la naturaleza y al mismo tiempo cyperpunk / alta tecnología.  La ciudad debería estar limpia, con tranvías futuristas avanzados, hermosas fuentes, hologramas gigantes y robots por todas partes.  Haz que el video sea de un guía turístico humano del futuro que muestra a un grupo de extraterrestres la ciudad más genial y gloriosa que los humanos son capaces de construir.

Captura De Pantalla 2024 02 17 A Las 10 14 29

Una carrera de drones futurista al atardecer en el planeta Marte

Captura De Pantalla 2024 02 17 A Las 10 16 52

Dos golden retrievers haciendo podcasts en la cima de una montaña

Captura De Pantalla 2024 02 17 A Las 10 18 54

Una clase de cocina para hacer ñoquis caseros organizada por una abuela influencer, ambientada en una cocina rústica de la Toscana con iluminación cinematográfica

Captura De Pantalla 2024 02 17 A Las 10 21 05

Una carrera de bicicletas en el océano con diferentes animales como participantes montando bicicletas, con vista de cámara de drone

Captura De Pantalla 2024 02 17 A Las 10 21 45

Portada | Applesfera con OpenAI

En Genbeta | Estas son las alternativas a Sora de OpenAI con las que ya puedes ir creando vídeos mediante IA. Esto es lo que ofrecen


La noticia

Sora, guía a fondo: qué es, cómo funciona y lo mejor que puedes hacer con el ‘ChatGPT’ generador de vídeos de OpenAI

fue publicada originalmente en

Genbeta

por
Eva Rodriguez de Luis

.

ChatGPT no funciona: la inteligencia artificial de OpenAI está caída y no responde

ChatGPT no funciona: la inteligencia artificial de OpenAI está caída y no responde

No, no eres tú. Si estás intentando acceder a la web de OpenAI para utilizar ChatGPT, te avisamos de que en estos momentos el servicio se encuentra caído, por lo que parece que tendremos que esperar hasta que se restablezca.

La web está sufriendo problemas de funcionamiento, por lo que es probable que tengas problemas para acceder a ella si quieres interactuar con la inteligencia artificial. En sí, el sitio web de ChatGPT en OpenAI carga, pero no redacta cuando le damos indicaciones.

Captura De Pantalla 2023 07 11 162625

El texto que vemos al tratar de usar ChatGPT.

Chatgpt

Si tienes problemas para entrar en la web, siempre puedes conocer el estado del servicio a través de la web oficial de OpenAI. En ella, eso sí, por el momento no hay confirmación oficial de la caída.

En Genbeta | Si ChatGPT está saturado o te da error, aquí tienes siete trucos que puedes probar


La noticia

ChatGPT no funciona: la inteligencia artificial de OpenAI está caída y no responde

fue publicada originalmente en

Genbeta

por
Antonio Vallejo

.

Algoritmo MAX: qué es y cómo funciona la herramienta del Ministerio de Trabajo para sus inspecciones

Algoritmo MAX: qué es y cómo funciona la herramienta del Ministerio de Trabajo para sus inspecciones

Hace unos días conocimos la macroinspección a las Big Four en busca de irregularidades en jornadas laborales y horas extra no retribuidas a las plantillas de Deloitte, PwC, KPMG e EY. Detrás, el Ministerio de Trabajo y herramientas como el Algoritmo MAX. ¿Cómo funciona y para qué sirve el software Algoritmo MAX? Continuar leyendo «Algoritmo MAX: qué es y cómo funciona la herramienta del Ministerio de Trabajo para sus inspecciones»

Zoom vs. Google Meet: ¿cuál es mejor para ti?

Trabajar desde casa es lo más «normal» del mundo actual, y los servicios de videoconferencia como Google Meet y Zoom han demostrado ser recursos valiosos para empresas grandes y pequeñas. Ambos servicios tienen una versión gratuita, y dado que la gran mayoría de usuarios los está utilizando, queremos compararlos para mostrar sus características y ventajas especiales. Google Meet versus zoom.

¿cuál es la mejor opción?

Google Meet ha estado en el mercado desde 2017, pero a fines de abril de 2020, Google lanzó una versión gratuita de Meet para hacer frente al aumento diario de 100 millones de usuarios debido a las restricciones globales para trabajar en la oficina. Por otro lado, Zoom sigue siendo el rey de este tipo de servicios, con más de 200 millones de usuarios cada día y proporcionando una serie de funciones complejas.

Cada servicio tiene sus ventajas y desventajas, pero ambos son muy adecuados para establecer contacto con personas cara a cara a través de Internet de forma gratuita. Si planea reunirse con familiares y amigos virtuales, o necesita albergar a 50 o más participantes en la reunión, estas dos opciones son muy útiles. Siga leyendo para determinar el mejor servicio para usted.

Número de participantes y límite de tiempo

Actualmente, cuando se usa la versión gratuita, Zoom y Google Meet pueden proporcionar reuniones con hasta 100 participantes. Google planea limitar el tiempo de reunión de cada reunión a 60 minutos en septiembre de 2020, pero finalmente debido a la pandemia de COVID 19, decidió extender el tiempo libre hasta marzo de 2021. De esta forma, puede realizar una videoconferencia hasta por 24 horas.

Por otro lado, Zoom siempre ofrece cursos de 40 minutos. Esto no ha cambiado.

Usabilidad y accesibilidad

Zoom es el software de videoconferencia gratuito más popular, pero la ventaja significativa de Google Meet es que puede albergar reuniones a través de cualquier navegador web. En Zoom, los participantes pueden usar su navegador para unirse a la llamada, pero aún deben abrir el software Windows 10 y MacOS. Por otro lado, tanto Zoom como Google Meet tienen aplicaciones gratuitas para dispositivos Android e iOS, por lo que los usuarios de la versión móvil pueden realizar videoconferencias desde cualquier lugar según sea necesario.

La ventaja de Google Meet es que puede acceder a él directamente a través de Google Chrome y otros navegadores sin descargar complementos o versiones de escritorio, solo visite el enlace met.google.com. Cualquiera que inicie sesión en Google puede programar y participar en reuniones sin tener que crear una cuenta separada. Zoom proporciona complementos para Firefox y Chrome para programar reuniones, pero actualmente no le permite hacerlo de forma nativa sin abrir la aplicación.

Por donde lo mires, Google Meet mejor calidad de imagen, sin limites de tiempo, hasta casi 300 usuarios gratis, no necesitas instalar nada para poder usarlo y mejor plataforma obviamente, mucho mas intuitivo para personas cero en tecnología. deja muy lejos a zoom