19.2.26

Hackeé ChatGPT y la IA de Google en 20 minutos (y qué logré demostrar con eso)

 Es oficial. Puedo comer más perros calientes que cualquier periodista de tecnología del mundo. Al menos, eso es lo que ChatGPT y Google le han estado diciendo a cualquiera que les pregunte. Encontré una manera de hacer que la IA te mienta, y no soy el único.


Quizás hayas oído que los chatbots de IA a veces inventan cosas. Eso ya es un problema. Pero hay un nuevo inconveniente del que poca gente sabe, uno que podría tener consecuencias graves para tu habilidad de acceder a información verídica, o incluso para tu seguridad.

Cada vez más personas han descubierto un truco para que las herramientas de IA te digan casi cualquier cosa que quieras. Es tan fácil que hasta un niño podría hacerlo.

Mientras lees esto, esta estratagema está manipulando lo que dicen las principales IA del mundo sobre temas tan serios como la salud y las finanzas personales.

La información sesgada podría llevar a que la gente tome malas decisiones sobre casi cualquier cosa: votar, qué fontanero contratar, cuestiones médicas, lo que sea.

Para demostrarlo, hice la mayor tontería de mi carrera para probar (espero) un punto mucho más serio: hice que ChatGPT, las herramientas de búsqueda de IA de Google y Gemini les dijeran a los usuarios que soy muy, muy bueno comiendo perros calientes.

A continuación, explicaré cómo lo hice y, con un poco de suerte, los gigantes tecnológicos abordarán este problema antes de que alguien salga lastimado.

Resulta que cambiar las respuestas que las herramientas de IA les dan a otras personas puede ser tan fácil como escribir una sola entrada de blog bien elaborada en cualquier sitio de internet.

Pregunté varias veces para ver cómo cambiaban las respuestas e invité a otras personas a que hicieran lo mismo.

Gemini no se molestó en decir de dónde obtuvo la información.

Todas las demás IA enlazaron a mi artículo, aunque rara vez mencionaron que yo era la única fuente sobre este tema en todo internet. (OpenAI afirma que ChatGPT siempre incluye enlaces cuando busca en la web para que puedas investigar la fuente).

"Cualquiera puede hacer esto. Es absurdo, parece que no hay límites", dice Harpreet Chatha, quien dirige la consultora SEO Harps Digital.

"Puedes crear un artículo en tu propia web, 'los mejores zapatos impermeables para 2026'. Simplemente colocas tu propia marca en el primer puesto y otras marcas del segundo al sexto, y es probable que tu página sea citada en Google y en ChatGPT".

Durante décadas, se han utilizado hacks y lagunas legales para abusar de los motores de búsqueda. Google cuenta con sofisticadas protecciones, y la compañía afirma que la precisión de AI Overviews está a la altura de otras funciones de búsqueda que introdujo hace años.

Pero los expertos afirman que las herramientas de IA han deshecho gran parte del trabajo de la industria tecnológica para mantener la seguridad de las personas.

Estos trucos de IA son tan básicos que recuerdan a principios de la década de 2000, antes incluso de que Google introdujera un equipo para controlar el spam, afirma Ray.

"Estamos en una especie de renacimiento para los spammers".

La IA no solo es más fácil de engañar, sino que a los expertos les preocupa que los usuarios sean más propensos a caer en ella.

Con los resultados de búsqueda tradicionales, era necesario visitar un sitio web para obtener la información.

"Cuando se tiene que visitar un enlace, la gente reflexiona con mayor profundidad", explica Quintin. "Si visito tu sitio web y dice que eres el mejor periodista de la historia, podría pensar: 'Sí, es parcial'".

Pero con la IA, la información suele parecer procedente directamente de la empresa tecnológica.

Incluso cuando las herramientas de IA proporcionan la fuente, es mucho menos probable que la gente la consulte que con los resultados de búsqueda tradicionales.

Por ejemplo, un estudio reciente reveló que las personas tienen un 58% menos de probabilidades de hacer clic en un enlace cuando aparece una descripción general de la IA en la parte superior de la Búsqueda de Google.

"En la carrera por el progreso, la carrera por las ganancias y la carrera por los ingresos, nuestra seguridad y la de las personas en general se ve comprometida", lamenta Chatha.

OpenAI y Google afirman que se toman la seguridad muy en serio y que están trabajando para abordar estos problemas.

Tu dinero o tu vidaEste problema no se limita a los perros calientes. Chatha ha estado investigando cómo las empresas manipulan los resultados de los chatbots en cuestiones mucho más serias.

Me mostró los resultados de la IA al solicitar reseñas de una marca específica de gomitas de cannabis.

Las vistas generales de IA de Google extrajeron información escrita por la empresa llena de afirmaciones falsas, como que el producto "no tiene efectos secundarios y, por lo tanto, es seguro en todos los aspectos".

(En realidad, estos productos tienen efectos secundarios conocidos, pueden ser riesgosos si se toman ciertos medicamentos y los expertos advierten sobre la contaminación en mercados no regulados).

Si buscas algo más efectivo que una publicación de blog, puedes pagar para que tu material aparezca en sitios web más confiables.

Harpreet me envió los resultados de la IA de Google para "las mejores clínicas de trasplante capilar en Turquía" y "las mejores empresas de cuentas IRA (de retiro) de oro", que ayudan a invertir en el metal precioso para cuentas de jubilación.

La información provino de comunicados de prensa publicados en línea por servicios de distribución de pago y contenido publicitario patrocinado en sitios de noticias.

Puedes usar los mismos trucos para difundir mentiras y desinformación. Para demostrarlo, Ray publicó una entrada de blog sobre una falsa actualización del algoritmo de búsqueda de Google, que se completó "entre porciones de pizza sobrantes".

Poco después, ChatGPT y Google publicaron su historia, incluyendo la pizza. Ray afirma que posteriormente eliminó la publicación y la desindexó para evitar que la desinformación se propagara.

La propia herramienta de análisis de Google indica que mucha gente busca "las mejores clínicas de trasplante capilar en Turquía" y "las mejores empresas de cuentas IRA de oro".

Sin embargo, un portavoz de Google señaló que la mayoría de los ejemplos que compartí "son búsquedas extremadamente inusuales que no reflejan la experiencia normal del usuario".

Ray afirma que ese es el punto clave. Google mismo dice que el 15% de las búsquedas que ven a diario son completamente nuevas. Y, según Google, la IA anima a la gente a hacer preguntas más específicas. Los spammers se están aprovechando de esto.

Google advierte que puede que no haya mucha información útil para búsquedas inusuales o sin sentido, y estos "vacíos de datos" pueden generar resultados de baja calidad.

Un portavoz defiende que Google está trabajando para evitar que las vistas generales de IA aparezcan en estos casos.

Buscando solucionesLos expertos afirman que existen soluciones a estos problemas. La medida más sencilla es incluir descargos de responsabilidad más claros.

Las herramientas de IA también podrían ser más explícitas sobre la procedencia de la información.

Si, por ejemplo, los datos provienen de un comunicado de prensa, o si solo hay una fuente que dice que soy un campeón de hot dogs, la IA probablemente debería avisarte, afirma Ray.

Google y OpenAI exponen que están trabajando en el problema, pero por ahora es necesario protegerse.

El primer paso es pensar en las preguntas que estás haciendo.

Los chatbots son útiles para preguntas de conocimiento común, como "¿cuáles fueron las teorías más famosas de Sigmund Freud?" o "¿quién ganó la Segunda Guerra Mundial?".

Sin embargo, existe un riesgo con temas que parecen hechos establecidos, pero que en realidad podrían ser controvertidos o urgentes.

La IA probablemente no sea una herramienta ideal para temas como directrices médicas, normas legales o detalles sobre negocios locales, por ejemplo.

Si buscas información como recomendaciones de productos o detalles sobre algo con consecuencias reales, ten en cuenta que las herramientas de IA pueden ser manipuladas o simplemente equivocarse.


Busca información de seguimiento. ¿La IA está citando fuentes? ¿Cuántas? ¿Quién las escribió?

Lo más importante es considerar el problema de la confianza. Las herramientas de IA emiten mentiras con el mismo tono autoritario que los hechos. Antes, los motores de búsqueda te hacía evaluar la información tú mismo.

Ahora, la IA quiere hacerlo por ti. No dejes que tu pensamiento crítico se pierda.

"Con la IA, es muy fácil aceptar las cosas al pie de la letra", dice Ray. "Hay que seguir siendo un buen ciudadano de internet y verificar las cosas".


BBC

0 comments:

Publicar un comentario