noviembre 10, 2024

CubaComunica

Spanish News Today para obtener las últimas noticias, estilo de vida y información turística en inglés en España.

Todo ha sido revelado, incluido Gemini AI, Android 15 y más.

Todo ha sido revelado, incluido Gemini AI, Android 15 y más.

Al final de I/O, la conferencia anual de desarrolladores de Google en el Shoreline Amphitheatre de Mountain View, el director ejecutivo de Google, Sundar Pichai, reveló que la compañía dijo «IA» 121 veces. Esta fue, esencialmente, la esencia del discurso de apertura de dos horas de Google: incorporar la IA a todas las aplicaciones y servicios de Google utilizados por más de dos mil millones de personas en todo el mundo. Aquí están todas las actualizaciones importantes del gran evento de Google, además de algunos anuncios adicionales que se produjeron después de la conferencia magistral.

Géminis profesional

Google

Google ha anunciado un modelo de inteligencia artificial completamente nuevo llamado Gemini 1.5 Flash, que, según dice, está optimizado para brindar velocidad y eficiencia. El Flash se encuentra entre el Gemini 1.5 Pro y el Gemini 1.5 Nano, el modelo más pequeño de la compañía que se ejecuta de forma nativa en el dispositivo. Google dijo que creó Flash porque los desarrolladores querían un modelo más liviano y menos costoso que Gemini Pro para crear aplicaciones y servicios impulsados ​​por inteligencia artificial y al mismo tiempo conservar algunas cosas como una ventana de contexto de un millón de caracteres que distingue a Gemini Pro de los modelos de la competencia. A finales de este año, Google duplicará la ventana de contexto Gemini a 2 millones de tokens, lo que significa que podrá procesar 2 horas de vídeo, 22 horas de audio y más de 60.000 líneas de código o más de 1,4 millones de palabras al mismo tiempo. . el tiempo. .

Proyecto AstraProyecto Astra

Google

Google mostró el Proyecto Astra, una primera versión de un asistente global impulsado por IA, que según Demis Hassabis, director ejecutivo de DeepMind de Google, es la versión de Google de un agente de IA «que podría ser útil en la vida cotidiana».

En un video que, según Google, fue filmado en una sola toma, un usuario de Astra se mueve por la oficina de Google en Londres sosteniendo su teléfono y apuntando con la cámara a diferentes cosas (un altavoz, algún código en una pizarra, afuera de una ventana) y tiene una conversación natural. con la aplicación sobre cómo se ve el comando. Y en uno de los momentos más impresionantes del vídeo, le dice correctamente al usuario dónde dejó sus gafas antes sin que el usuario las levante.

READ  Google no cierra Stadia

El vídeo termina con una sorpresa: cuando el usuario encuentra las gafas que faltan y se las pone, nos enteramos de que tiene un sistema de cámara incorporado y puede utilizar Project Astra para tener una conversación fluida con el usuario, lo que podría sugerir que Es posible que Google esté trabajando en un competidor de las gafas inteligentes Ray Ban de Meta.

pregunta las fotospregunta las fotos

Google

Google Photos ya era inteligente a la hora de buscar fotos o vídeos específicos, pero con la IA, Google está llevando las cosas al siguiente nivel. Si es suscriptor de Google One en EE. UU., podrá hacerle a Google Fotos una pregunta compleja como «Muéstrame la mejor foto de cada parque nacional que hayas visitado» cuando la función se implemente en los próximos años. meses. Google Photos utilizará la información de su GPS y su propio criterio sobre qué es «mejor» para brindarle opciones. También puedes pedirle a Google Photos que genere títulos para publicar fotos en las redes sociales.

VistaVista

Google

Los nuevos motores de creación de medios impulsados ​​por IA de Google se llaman Veo e Imagine 3. Veo es la respuesta de Google a Sora de OpenAI. Google dijo que puede producir videos de 1080p de «alta calidad» que pueden durar «más de un minuto» y que puede comprender conceptos cinematográficos como el lapso de tiempo.

Mientras tanto, Imagen 3 es un generador de texto a imagen que, según Google, maneja el texto mejor que su predecesor, Imagen 2. El resultado es el modelo de texto a imagen de mayor calidad de la compañía con un «asombroso nivel de detalle» para resultados «realistas». , imágenes realistas.» ” y menos artefactos, lo que esencialmente lo compara con DALLE-3 de OpenAI.

READ  Respuestas de crucigramas del NYT del 12 de julio de 2023
búsqueda de Googlebúsqueda de Google

Google

Google está realizando grandes cambios en el funcionamiento fundamental de la búsqueda. La mayoría de las actualizaciones anunciadas hoy son como la capacidad de hacer preguntas realmente complejas (“Encuentre los mejores estudios de yoga o Pilates en Boston y vea detalles sobre las ofertas y los tiempos de caminata desde Beacon Hill”) y utilice la búsqueda para planificar comidas y vacaciones. Solo estará disponible si te suscribes a Search Labs, la plataforma de la compañía que permite a las personas probar funciones beta.

Pero la gran característica nueva, que Google llama AI Overviews y que la compañía ha estado probando durante un año, finalmente se está implementando para millones de personas en los Estados Unidos. La Búsqueda de Google ahora presentará respuestas generadas por IA en la parte superior de los resultados de forma predeterminada, y la compañía dice que pondrá la función a disposición de más de mil millones de usuarios en todo el mundo para fin de año.

Géminis en AndroidGéminis en Android

Google

Google está integrando Gemini directamente en Android. Cuando se lance Android 15 a finales de este año, Gemini sabrá qué aplicación, foto o video estás reproduciendo y podrá arrastrarlo como una superposición y hacerle preguntas específicas del contexto. ¿Dónde deja eso al Asistente de Google que ya hace esto? ¡A quién conoces! Google no mencionó esto en absoluto durante la conferencia magistral de hoy.

Google aún no está listo para lanzar la última versión de su sistema operativo de reloj inteligente, pero promete algunas mejoras importantes en la duración de la batería cuando llegue. La compañía dijo que Wear OS 5 consumirá un 20 por ciento menos de energía que Wear 4 si un usuario corre un maratón. Wear OS 4 trajo mejoras en la duración de la batería de los relojes inteligentes que lo admiten, pero aún podría ser mucho mejor en la gestión de la energía del dispositivo. Google también proporcionó a los desarrolladores una nueva guía sobre cómo conservar energía y batería para que puedan crear aplicaciones más eficientes.

READ  ¡Las enormes ofertas de MacBook Air M3 continúan! $149 de descuento en el modelo de 13 pulgadas desde $850, $249 de descuento en el modelo de 15 pulgadas y 16 GB

Es posible que la vista previa para desarrolladores de Android 15 haya estado disponible durante meses, pero todavía hay funciones por venir. El bloqueo de detección de robo es una de las nuevas funciones de Android 15 que utilizará IA (aquí está nuevamente) para predecir el robo del teléfono y bloquear las cosas en consecuencia. Google dice que sus algoritmos pueden detectar movimientos asociados con el robo, como los asociados con agarrar un teléfono y alejarse, andar en bicicleta o alejarse conduciendo. Si un teléfono con Android 15 selecciona una de estas situaciones, la pantalla del teléfono se bloqueará rápidamente, lo que dificultará que un secuestrador de teléfono acceda a sus datos.

También ha habido muchas otras actualizaciones. Google dijo que agregará marcas de agua digitales a videos y textos generados por IA, hará que Gemini sea accesible en el panel lateral de Gmail y Docs, admitirá a un colega virtual impulsado por IA en Workspace, escuchará llamadas telefónicas y detectará si realmente está siendo estafado. tiempo y mucho más.

Sigue en directo todas las novedades del Google I/O 2024 aquí!

Actualizado el 15 de mayo a las 2:45 p.m. ET: Esta historia se actualizó después de la publicación para incluir detalles sobre los nuevos anuncios de Android 15 y WearOS 5 publicados después de la conferencia magistral de I/O 2024.