betmotion mexico-boldness.com.br
 
 

EMPRESA

20 ANOS DE
MUITO TRABALHO.
 
 

Google refina y modifica sus resúmenes de resultados de búsqueda generados por IA

Google anunció el jueves que perfeccionaría y 💶 ajustaría sus resúmenes de resultados de búsqueda generados por IA, publicando un blog que explica por qué la función devolvía 💶 respuestas extrañas y poco precisas que incluían decirle a la gente que comiera piedras o agregara cola a la salsa 💶 de pizza. La empresa reducirá el ámbito de las búsquedas que devolverán un resumen escrito por IA.

Google ha 💶 agregado varias restricciones al tipo de búsquedas que generarán resultados de resúmenes de IA, dijo el jefe de búsqueda de 💶 la empresa, Liz Reid, así como "limitó la inclusión de contenido satírico y humorístico". La empresa también está tomando medidas 💶 contra un pequeño número de resúmenes de IA que violan sus políticas de contenido, que dijo que ocurrió en menos 💶 de 1 en 7m búsquedas únicas donde apareció la función.

La función de resúmenes de IA, que Google lanzó 💶 en los EE. UU. este mes, produjo rápidamente ejemplos virales del tool malinterpretando la información y apareciendo usar fuentes satíricas 💶 como The Onion o publicaciones de Reddit humorísticas para generar respuestas. Los fracasos de la IA de Google se convirtieron 💶 en un meme, con capturas de pantalla falsas de respuestas absurdas y oscuras circulando ampliamente en las plataformas de redes 💶 sociales junto con los fallos reales del tool.

Google promocionó su función de resúmenes de IA como uno de 💶 los pilares de la empresa más amplia para incorporar la inteligencia artificial generativa en sus servicios centrales, pero su implementación 💶 llevó a la empresa a enfrentar vergüenza pública una vez más después del lanzamiento de un nuevo producto de IA. 💶 Google enfrentó una reacción pública y ridículo anterior este año después de que su herramienta de generación de imágenes de 💶 IA insertara erróneamente a personas de color en situaciones históricas, incluida la creación de imágenes de personas negras como soldados 💶 alemanes de segunda guerra mundial.

Lea más: Google detiene la generación de imágenes de personas AI después de la crítica 💶 por la raza

El blog de Google brindó un resumen breve de lo que salió mal con los resúmenes de 💶 IA y defendió la función, con Reid afirmando que muchas de las falsedades de los resúmenes de IA eran el 💶 resultado de lagunas de información debido a búsquedas raras o inusuales. Reid también afirmó que hubo intentos deliberados de manipular 💶 la función para que produjera respuestas inexactas.

"No hay nada como tener millones de personas utilizando la función con 💶 muchas búsquedas nuevas", dijo Reid en la publicación. "También hemos visto nuevas búsquedas sin sentido, aparentemente destinadas a producir resultados 💶 erróneos".

Muchos de los publicaciones virales, de hecho, fueron de búsquedas extrañas como "cuántas piedras debo comer" - que 💶 devolvió un resultado basado en un artículo de The Onion titulado Geólogos recomiendan comer al menos una pequeña piedra al 💶 día - pero otros parecían ser de consultas más razonables. Un experto en IA compartió una imagen de un resumen 💶 de IA que afirmaba que Barack Obama había sido el primer presidente musulmán de EE. UU., una teoría de la 💶 conspiración de derecha común.

"Al examinar ejemplos de las últimas semanas, pudimos determinar patrones en los que no lo 💶 hicimos bien y realizamos más de una docena de mejoras técnicas en nuestros sistemas", dijo Reid.

saltar promoción de 💶 boletín

Aunque el blog de Google enmarca los problemas con los resúmenes de IA como

  • jogo suspenso pixbet


  •  

    Google refina y modifica sus resúmenes de resultados de búsqueda generados por IA

    Google anunció el jueves que perfeccionaría y 💶 ajustaría sus resúmenes de resultados de búsqueda generados por IA, publicando un blog que explica por qué la función devolvía 💶 respuestas extrañas y poco precisas que incluían decirle a la gente que comiera piedras o agregara cola a la salsa 💶 de pizza. La empresa reducirá el ámbito de las búsquedas que devolverán un resumen escrito por IA.

    Google ha 💶 agregado varias restricciones al tipo de búsquedas que generarán resultados de resúmenes de IA, dijo el jefe de búsqueda de 💶 la empresa, Liz Reid, así como "limitó la inclusión de contenido satírico y humorístico". La empresa también está tomando medidas 💶 contra un pequeño número de resúmenes de IA que violan sus políticas de contenido, que dijo que ocurrió en menos 💶 de 1 en 7m búsquedas únicas donde apareció la función.

    La función de resúmenes de IA, que Google lanzó 💶 en los EE. UU. este mes, produjo rápidamente ejemplos virales del tool malinterpretando la información y apareciendo usar fuentes satíricas 💶 como The Onion o publicaciones de Reddit humorísticas para generar respuestas. Los fracasos de la IA de Google se convirtieron 💶 en un meme, con capturas de pantalla falsas de respuestas absurdas y oscuras circulando ampliamente en las plataformas de redes 💶 sociales junto con los fallos reales del tool.

    Google promocionó su función de resúmenes de IA como uno de 💶 los pilares de la empresa más amplia para incorporar la inteligencia artificial generativa en sus servicios centrales, pero su implementación 💶 llevó a la empresa a enfrentar vergüenza pública una vez más después del lanzamiento de un nuevo producto de IA. 💶 Google enfrentó una reacción pública y ridículo anterior este año después de que su herramienta de generación de imágenes de 💶 IA insertara erróneamente a personas de color en situaciones históricas, incluida la creación de imágenes de personas negras como soldados 💶 alemanes de segunda guerra mundial.

    Lea más: Google detiene la generación de imágenes de personas AI después de la crítica 💶 por la raza

    El blog de Google brindó un resumen breve de lo que salió mal con los resúmenes de 💶 IA y defendió la función, con Reid afirmando que muchas de las falsedades de los resúmenes de IA eran el 💶 resultado de lagunas de información debido a búsquedas raras o inusuales. Reid también afirmó que hubo intentos deliberados de manipular 💶 la función para que produjera respuestas inexactas.

    "No hay nada como tener millones de personas utilizando la función con 💶 muchas búsquedas nuevas", dijo Reid en la publicación. "También hemos visto nuevas búsquedas sin sentido, aparentemente destinadas a producir resultados 💶 erróneos".

    Muchos de los publicaciones virales, de hecho, fueron de búsquedas extrañas como "cuántas piedras debo comer" - que 💶 devolvió un resultado basado en un artículo de The Onion titulado Geólogos recomiendan comer al menos una pequeña piedra al 💶 día - pero otros parecían ser de consultas más razonables. Un experto en IA compartió una imagen de un resumen 💶 de IA que afirmaba que Barack Obama había sido el primer presidente musulmán de EE. UU., una teoría de la 💶 conspiración de derecha común.

    "Al examinar ejemplos de las últimas semanas, pudimos determinar patrones en los que no lo 💶 hicimos bien y realizamos más de una docena de mejoras técnicas en nuestros sistemas", dijo Reid.

    saltar promoción de 💶 boletín

    Aunque el blog de Google enmarca los problemas con los resúmenes de IA como

  • jogo suspenso pixbet

  • Instagram
     
    CADASTRE-SE PARA
    RECEBER NOSSA NEWSLETTER
     
    BOLDNESS. TODOS OS DIREITOS RESERVADOS. sitemap
    • Instagram
    • Facebook
    • Twitter
    • Youtube
    • Simples Online