Nada, vamos a acabar todos de comerciales. Es un ámbito en el que lo importante ha sido siempre hacer las preguntas adecuadas, como dice José Antonio Padilla, un consultor en ventas malagueño. Muy lampedusiano esto, todo cambia y al final lo importante sigue siendo lo de siempre, saber preguntar.
Lo primero, muchas gracias Antonio por gastarte 200€ y contarnos a todos cómo ves Deep Research.
Dos preguntas. Igual ya las has respondido en monos, pero es que voy una semana retrasado con los podcasts.
1) ¿Cómo te vas a sentir cuando pase un mes, dejes de pagarlo, y no puedas usarlo? ¿Vas a echar de menos tenerlo como herramienta?
2) El problema principal que decían que podían tener los agentes es la acumulación de errores en cada paso de acción. Esto, es, el problema de mantener una línea coherente en un proceso que tarda minutos y que puede contener decenas de decisiones. ¿Cómo ves esto? ¿Los errores que has detectado afectan a la coherencia global del resultado? A mi lo que me parece alucinante, tanto en esto como en Operator, es que, a principios de 2025, ya estemos resolviendo este problema de mantener un comportamiento coherente en una secuencia de acciones que puede durar minutos. Me gusta el enfoque de Altman de hablar de segundos, minutos, horas, etc. a la hora de definir la calidad de los agentes. ¿Cómo ves dónde estamos en este aspecto con Deep Research? ¿Las 15 páginas que saca son coherentes, a pesar de tener alguna alucinación? ¿O las pocas alucinaciones que tiene se cargan la coherencia del resultado?
Como he dicho, si lo has comentado ya en monos, no me contestes. Lo tengo pendiente de escuchar hoy o mañana.
Acabo de escuchar el episodio de monos de Deep Research y, efectivamente, ya has comentado cosas sobre la segunda pregunta. Totalmente de acuerdo con lo que decís Mati y tú.
Y a la primera pregunta tampoco hace falta que contestes... ahora que Sam dice que nos va a dar unos cuantos usos a los que pagamos 20€, supongo que vas a dejar de pagar los 200. Eso sí, si sigues pagando los 200€ sí que nos tienes que explicar qué estás haciendo para que te compense, cómo le estás sacando perras a los informes.
Me voy a seguir tirando de la cola de podcasts, a ver si llego pronto al vuestro de esta semana.
hola Domingo, me he dado un tiempo como ves para pensar bien las respuestas
1. Sí, estas semanas lo estoy usando cada vez más en temas de pura curiosidad intelectual aunque profesionalmente no me ayuda tanto
2. donde detecto más errores ahora mismo: en seleccionar la mejor fuente para un tema y en la precisón de los datos numéricos (cantidades, precios, valoraciones...)
Muy buen take en lo del problema de seleccionar la mejor fuente para un tema, no había pensado en ello. Es complicado porque necesitas conocimiento "meta" sobre la fuente (relevancia de autores, del medio en que se publica, impacto en la conversación pública, ...). Supongo que estarán en ello, y que también usarán nuestras propias valoraciones como usuarios para darle al RL.
Y lo de la curiosidad intelectual es lo que más me motivaría a mi también (cuando pueda probarlo). Y también para ayudarme en la newsletter. Ahora mismo le acabo de pedir a Grok 3, un "Timeline de eventos relacionados con DeepSeek" para el artículo que estoy escribiendo. Lo de "timeline" se me ha ocurrido copiándolo de NotebookLM y me ha resultado muy útil el informe que me ha hecho.
La IA no es completamente fiable y tiene cierto sesgo por el origen de las fuentes con las que razona... ¿Y los humanos no? Tal y como lo cuentas, no veo mucha diferencia con un asistente humano competente (y ojo, digo competente)
pues es un buen argumento. Aquí podríamos apuntar a dos cosas: depende del nivel humano y su especialización en lo que estemos hablando; también, creo que la IA y humanos nos equivocamos de forma diferente
Nada, vamos a acabar todos de comerciales. Es un ámbito en el que lo importante ha sido siempre hacer las preguntas adecuadas, como dice José Antonio Padilla, un consultor en ventas malagueño. Muy lampedusiano esto, todo cambia y al final lo importante sigue siendo lo de siempre, saber preguntar.
Interesante
Lo primero, muchas gracias Antonio por gastarte 200€ y contarnos a todos cómo ves Deep Research.
Dos preguntas. Igual ya las has respondido en monos, pero es que voy una semana retrasado con los podcasts.
1) ¿Cómo te vas a sentir cuando pase un mes, dejes de pagarlo, y no puedas usarlo? ¿Vas a echar de menos tenerlo como herramienta?
2) El problema principal que decían que podían tener los agentes es la acumulación de errores en cada paso de acción. Esto, es, el problema de mantener una línea coherente en un proceso que tarda minutos y que puede contener decenas de decisiones. ¿Cómo ves esto? ¿Los errores que has detectado afectan a la coherencia global del resultado? A mi lo que me parece alucinante, tanto en esto como en Operator, es que, a principios de 2025, ya estemos resolviendo este problema de mantener un comportamiento coherente en una secuencia de acciones que puede durar minutos. Me gusta el enfoque de Altman de hablar de segundos, minutos, horas, etc. a la hora de definir la calidad de los agentes. ¿Cómo ves dónde estamos en este aspecto con Deep Research? ¿Las 15 páginas que saca son coherentes, a pesar de tener alguna alucinación? ¿O las pocas alucinaciones que tiene se cargan la coherencia del resultado?
Como he dicho, si lo has comentado ya en monos, no me contestes. Lo tengo pendiente de escuchar hoy o mañana.
Muchas gracias y un abrazo!
Acabo de escuchar el episodio de monos de Deep Research y, efectivamente, ya has comentado cosas sobre la segunda pregunta. Totalmente de acuerdo con lo que decís Mati y tú.
Y a la primera pregunta tampoco hace falta que contestes... ahora que Sam dice que nos va a dar unos cuantos usos a los que pagamos 20€, supongo que vas a dejar de pagar los 200. Eso sí, si sigues pagando los 200€ sí que nos tienes que explicar qué estás haciendo para que te compense, cómo le estás sacando perras a los informes.
Me voy a seguir tirando de la cola de podcasts, a ver si llego pronto al vuestro de esta semana.
hola Domingo, me he dado un tiempo como ves para pensar bien las respuestas
1. Sí, estas semanas lo estoy usando cada vez más en temas de pura curiosidad intelectual aunque profesionalmente no me ayuda tanto
2. donde detecto más errores ahora mismo: en seleccionar la mejor fuente para un tema y en la precisón de los datos numéricos (cantidades, precios, valoraciones...)
Muy buen take en lo del problema de seleccionar la mejor fuente para un tema, no había pensado en ello. Es complicado porque necesitas conocimiento "meta" sobre la fuente (relevancia de autores, del medio en que se publica, impacto en la conversación pública, ...). Supongo que estarán en ello, y que también usarán nuestras propias valoraciones como usuarios para darle al RL.
Y lo de la curiosidad intelectual es lo que más me motivaría a mi también (cuando pueda probarlo). Y también para ayudarme en la newsletter. Ahora mismo le acabo de pedir a Grok 3, un "Timeline de eventos relacionados con DeepSeek" para el artículo que estoy escribiendo. Lo de "timeline" se me ha ocurrido copiándolo de NotebookLM y me ha resultado muy útil el informe que me ha hecho.
Madre mía, esto no para !!!
La IA no es completamente fiable y tiene cierto sesgo por el origen de las fuentes con las que razona... ¿Y los humanos no? Tal y como lo cuentas, no veo mucha diferencia con un asistente humano competente (y ojo, digo competente)
pues es un buen argumento. Aquí podríamos apuntar a dos cosas: depende del nivel humano y su especialización en lo que estemos hablando; también, creo que la IA y humanos nos equivocamos de forma diferente
Será capaz de hacer un resumen de vuestros podcast?
mmmm seguro que sí. Un aspecto curioso: la IA todavía no está consiguiendo ser nada buena en tener un enfoque divertido o humorístico