Navegar por las aguas del mundo del SEO y el análisis de datos puede parecer a menudo como adentrarse en un complejo laberinto. En medio de esto, Code Interpreter de ChatGPT emerge como un faro de simplicidad y eficacia.
Nuestro artículo es una pequeña muestra de lo que este potente plugin puede aportar en relación a la optimización SEO, análisis de datos complejos, y la visualización de datos para crear contenidos impactantes que impulsen tus estrategias digitales.
¿Preparado para desbloquear esta potente herramienta?
¡Empecemos!
Puntos clave de Code Interpreter:
- El complemento Code Interpreter de ChatGPT está revolucionando el análisis y la visualización de datos para los profesionales del marketing, permitiéndoles introducir datos sin formato de diversas fuentes y extraer información significativa en cuestión de minutos.
- Esta función permite a los usuarios de ChatGPT plus ejecutar código Python de forma rápida y eficaz, ahorrando tiempo en conjuntos de datos complejos y tareas de análisis.
- También puede utilizarse para la edición de archivos, eliminando la necesidad de herramientas externas.
- Con el complemento Code Interpreter, es posible ejecutar análisis de datos complejos sin grandes conocimientos estadísticos, para extraer conclusiones y tomar decisiones sobre estrategias de marketing digital.
¿Qué es el Code interpreter de OpenAI?
Code Interpreter es un complemento de última generación que simplifica el análisis y la visualización de datos y mejora las capacidades de codificación de los usuarios de ChatGPT Plus.
Los expertos en SEO y marketing digital también pueden potenciar su trabajo utilizándolo.
Este complemento permite escribir y ejecutar código Python de forma eficiente, sirviendo como tu científico de datos personal.
Además, la herramienta destaca por permitir la introducción de datos sin formato directamente desde archivos: PDF, CSV TXT, PDF, DOC, DOCX, JPEG, PNG, MP4, AVI, CSV, JSON, XML, XLS, XLSX, CPP, PY, HTML, PDF, DB, SQLite,
Proporcionando información significativa en tiempo real.
La potencia de Code Interpreter radica en que no se limita a escribir y ejecutar complejos códigos python sin esfuerzo; también permite crear tablas y gráficos visualmente atractivos a partir de datos sin procesar.
Imagina tener una IA tan inteligente que pueda convertir datos complejos en atractivas representaciones visuales; esto es lo que aporta la aplicación. Sin embargo, su versatilidad va mucho más allá del mero procesamiento de la información: te ofrece una asistencia inigualable en una gran variedad de problemas, proporcionándote soluciones integrales gracias a la aplicación de la IA.
Pues bien, para conocer a fondo sus capacidades no te pierdas nuestro podcast «El test de turing»:
Ver transcripción del video
Este contenido se genera a partir de la locución del audio por lo que puede contener errores.
(00:04) [Música] Hola Qué tal Cómo estáis amigos del mundo de la Inteligencia artificial otra
semana más episodio número 10 con Álvaro y con Arnau de iSocialWeb qué tal Cómo estáis muy bien
Hola buenos días Soy Víctor y nada esta semana hemos estado preparando cosas chulas tenemos ahí
episodios en la recámara de gente potente para semana siguientes hemos hecho entrevistas de las
que cuando hemos terminado las entrevistas hemos dicho buah qué chulo tenemos que poner a hacer
cosas entonces bueno las iremos publicando dentro de muy poco pero tiene
(00:52) una pinta
increíble entonces Os recomiendo que cuando cuando vayan saliendo les echéis un ojo pediros otra
vez tema reviews comentarios seguirnos en los diversos canales de podcast que nos ayuda un
montón a conseguir más audiencia un dato curioso es que he visto que estamos como el sesenta y
pico en el Canal de tecnología de ibox que me parece sorprendente porque tecnología Hay
muchísimo pero bueno eso me imagino que llevado al seo será como sexta página por tanto tampoco
así tampoco están relevante no pero bueno cuando empezamos éramos el 1500 no
(01:29) sé
cuántos de 60 y pico hay una progresión aparecer por las páginas donde están indexando estamos
en algunas cosillas arnals ha preparado esta semana un dato curioso sobre el mundo de la
Inteligencia artificial y nos lo va a comentar es una curiosidad sobre todo para los que no
estamos en el día a día entrenando modelos que es el concepto del sobreajusto del over fitting y
es lo interesante es que cuando tú empiezas a entrenar un modelo puede pasar que el modelo
aprenda no tanto pero que aprenda tanto el Data set que termine como memorizándolo y al
(02:17) final realmente lo que no pueda extrapolar la información sino que la dejes
exactamente a el marco de lo que se ha entrenado por ejemplo Imagínate que está entrando
imágenes con perros y el Data set no la el banco de imágenes que lo usas para entrenar tiene
mucho césped en el fondo o tiene por ejemplo siempre hay una puerta Pues quizá él acaba
entendiendo que un perro es alguien que es un elemento que lo entiende como un perro y la puerta
que hay detrás con lo cual cuando no hay puerta o cuando no hay césped entiende
(02:46) que
eso no es un perro Entonces es como muy curioso el hecho de que no solamente es entrenarlo sino
que luego también tienes que calibrar los sobre ajustes porque Oye Realmente si yo monto todas
estas imágenes de perros con césped sin añado otra imagen de perro con césped me va a detectar
correctamente al perro Pero puede indirectamente no ha entendido bien lo que era un perro
entonces bueno yo es un concepto que personalmente como yo no estoy en este mundo del día a día
me parece curioso que no es que puedas
(03:14) incluso pecar de exceso más que de quedarte
atrás que creo que es lo evidente Me acuerdo cuando yo me iniciaban estos mundos pensando en Ah
bueno sé programar cosillas sabré también hacer modelos de Inteligencia artificial cuando de
repente te das cuenta de que entrenar un modelo de Inteligencia artificial puro y duro es
extremadamente complejo por eso te quedas corto te pasa el rato no soy bueno no sé qué unos
cuantos y te tiras una barbaridad de tiempo haciendo los test y todo eso o sea es muy complejo y
la suerte que tenemos que a día de hoy
(03:48) prácticamente ni siquiera falta porque
tenemos herramientas como las que vamos a comentar en el podcast todo lo derivado de Open Cloud
y todo eso que nos facilita una barbaridad muchísimas cosas pues pues nada vamos con la noticia
Álvaro vamos con la tuya venga Vamos allá Pues yo os traigo un anuncio que se hizo oficial hace
muy poquito y es que la gente de antropic ha sacado clock 2 ya sabéis el modelo comercial
posiblemente que más que más está compitiendo con los modelos de openay Y la verdad es que lo he
estado testando
(04:21) luego lo contaré en la africada pero tiene cosas cosas interesantes
entre entre lo que comentan que han mejorado las nuevas habilidades que tiene o las habilidades
mejoradas que tiene hace referencia a la parte de codificación de generación de código que dicen
que es notablemente mejor luego contaré mi opinión tema de matemáticas y tema de razonamiento
vale o sea toda la parte un poco más técnica esa cuentan que hay una mejor hay una cosa
interesante también Y es que el precio lo han mantenido el mismo que clotress 1.3 vale Y eso
pues
(05:00) cuando te dan un modelo nuevo y encima no te disparan el precio pues es
bastante bastante interesante está abierto ahora mismo en Estados Unidos y Reino Unido Aunque sí
que es verdad que yo ayer entré sin sin una VPN y lo estoy usando no sé si con el lápiz que no
he llegado a probarlo todavía tiene algún tipo de bloqueo pero me entré desde España lo estoy
usando normal y no hubo ningún problema así que no sé si han quitado limitaciones y demás o es
por la cuenta que oficialmente la registramos desde otro lado no ahí No sabría deciros Pero
vamos
(05:29) en tres y nueve más cositas tema de tokens que siempre con clot es una cosa
interesante ya sabéis que estábamos en ciencas ahora tenemos 100ks de entrada y ciencas de
salida o sea al final Serían como 200 K Vale entonces eso está bastante bien porque ahí la
respuesta suele estar bastante elaborada se le puede meter muchísima información de contexto
como ya pasaba antes pero también de salida con lo cual está está genial y han metido una
especie de acercamiento al codo intérprete vale que es toda la parte de su vida de su vida
(06:04) archivos y se pueden subir diferentes tipos de archivos para analizarlos y procesarlos
O sea que cada vez ya estos estas herramientas de análisis de documentos y cosas así cada vez se
van quedando un poco más atrás porque ya los grandes modelos están Están incorporando estas
funcionalidades que son relativamente básicas y que funcionan bastante bien ya en el modelo en
el modelo final y luego otra de las cosas que a mí me surgía la duda era si la comunidad ya la
había empezado a testar frente a otros modelos sabéis
(06:39) lo de chatbot arena que ya lo
hemos comentado en algún podcast anterior a ver si aparecía clock 2 en el en el ranking y como
aparecía y de momento nada no ha habido no ha habido actualizaciones Así que habrá que esperar
un poquito Me parece que han pasado tres cuatro días desde que salió o sea que Bueno todavía
estamos pronto Sí pero yo creo que pegará una subida importante la verdad es que vamos estará
mano a mano con gpt 4 o muy cerquita porque ya Cloud estaba muy cerquita y este es notablemente
mejor así que lo mismo tenemos Alguna sorpresa
(07:12) aquí Javier tenía otro otro ranking
de modelos que ahí también tiene una comunidad muy grande a lo mejor por ahí sí que lo tienen
una cosa que cuando has dicho que primero me ha venido a la cabeza Ayer por la tarde estuve
dándole mucha caña a lanchin que tenía unas cosas pendientes a desarrollar y tal y estuve viendo
que lanchin tiene en las llamadas que se hace al modelo Tiene la capacidad de meter una llamada
intermedia para condensar el contenido de la llamada principal por ejemplo a gpt 4 limitado por
contexto le puedes mandar x
(07:53) cantidad de texto entonces lo que haces primero es
mandarlo a 3.5 con 16.000 tokens te hace un resumen de ese de ese Pro que tú estás mandando Y
entonces lo que devuelve 3.5 coges y se lo mandas a 4 directamente con ese resumen no y cuando
vi esa funcionalidad que se llama condenser o algo así pensé automáticamente en Cloud O sea la
capacidad que tenemos por ejemplo de pasar un PDF entero pedirle a Cloud que condense eso en
algo que GP de 4 o otro modelo pueda luego hacer está bastante Guay entonces una de las cosas
que molan
(08:33) de delante es precisamente eso no la capacidad de conectar diferentes
modelos y al final casi por el día a día porque porque gpt 4 es el mejor con mucha diferencia al
final solo acabamos tirando contra Open Ai y todo esto no Pero y de verdad Clau se empieza a
poner las pilas y todo eso podríamos empezar a tener varios modelos evidentemente potentes como
para concatenarlos o combinarlos para conseguir cosas más guays O sea que Bueno me parece súper
chulo que encima lo que has dicho Álvaro que mantengan el coste de la Api que eso
(09:05)
me parece súper súper relevante para que podamos seguir utilizando sin que nos cueste ahí una
castaña Sí además la verdad es que conectar diferentes modelos vamos técnicamente no tiene
ninguna complejidad yo lo tengo montado en algún Script que tengo una parte hecha con clot y
otra parte hecha con con gpt 4 Exactamente para eso porque lo mismo necesitaba meter mucha
información de contexto primero la proceso saco la información que necesito y luego Necesito una
respuesta de más calidad y se la pasó a gt4 O sea que creo que es
(09:36) bastante
interesante y de hecho ya lo hemos hablado alguna vez el hecho de Oye quizá hay modelos que
están más especializados en unas áreas podemos aprovechar en una parte del cálculo un modelo
determinado luego en otra otro modelo y así ir haciendo un proceso más optimizado estaba mirando
lo que comentabas del ranking de modelos de High en Face y lo que veo es que son todos Open
souls no están no sé si hay otro pero lo que a mí me parece interesante primero el Cloud se
puede probar o sea es curioso porque ya en en pou.com ya se
(10:15) puede probar Cloud 2
que es la ya está como por defecto es decir Cloud 2 de 100ks hay una funcionalidad interesante
dentro dentro a la hora de probarlo en Pou que es que ya también te da que eso creo que es una
funcionalidad que no le ha añadido que es ya un suichest de seguimiento de preguntas No yo lo he
hecho una pregunta así en plan chungui y la respuesta me ha respondido pero luego me ha hecho
pues Oye yo a partir de aquí te recomendaría estas cuatro o cinco preguntas o sea pienso que es
una funcionalidad que es como el
(10:44) autoplay casi de Netflix para tener una
conversación de mayor o sea de mayor engagement No si yo te voy guiando también un poco la
conversación quedamos en si será bueno malo para la sociedad eso pero bueno en cualquier caso
para el uso si me parece interesante el poder incluir esa funcionalidad y yo respecto a lo que
decía Víctor y me estaba acordando de la de la de mick Journey de la versión esta de 5.
(11:13) 2 lo que estaba no recordará la funcionalidad estaba estaba descargando está
actualizando discos y no lo puedo subir yo no puedo ver pero la funcionalidad está de mick
Journey de decir a qué le está dando peso cuando cuando hace el prom porque yo pienso que quizás
todos los de 100ks sin quitarle mérito a la situación pienso que es una cosa como un poco que
con el tiempo quedar como muy obsoleta porque al final realmente lo que lo que creo que va a
primar es haces un pront no el primer prompt sirve o sea el primer modelo sirve para entender
que es importante
(11:42) entre ese Bronx y el siguiente es ya ejecutarlo a los modelos que
sean pesados O sea yo pienso que al final lo que estamos haciendo nosotros ahora es un poco
churriminguero no digámoslo así en el sentido decirle Mira realmente le metemos todo y metemos
la ventana de ciencas obviamente por la parte de meterle archivos grandes pero en el tiempo lo
que va a ser Va a ser mucho más eficiente pues como decía Víctor con launchen un agente primero
que se ponga a buscar los pedazos de información útiles que Monte el pront y lo refine Y
(12:15) luego el siguiente que lo Lance Y a eso no me refiero al pronta engine y el Víctor que
lo estuve probando que lo estoy usando por privado que se comentó en el en el anterior mensaje y
eso es un consumidor de tokens brutal pero pero yo pienso que Hacia dónde vamos entonces esa
mezcla de un refinador de proms que vaya al prom del gran modelo ya lo comentamos con el fútbol
chipití Yo pienso que tiene todo sentido del mundo Esperamos que por el tiempo actual el Cloud 2
ya se puede probar en Pou sin necesidad de pagar nada eso creo que
(12:48) está bien estaba
limitado de haber visto alguna captura no tengo Pau Pero de alguna compartición por ahí que
tenía algún tipo de limitación por ejemplo o sea aunque aparece el mensaje de acceso limitado a
mí sí que me deja utilizarlo Sí es que estoy Ah vale si el límite de Access Yo creo que es
porque luego sí que hay una que sigo pensando que yo estoy comenzando con los que no lo están
usando esa es la mejor opción de todas porque el si os fijáis lo que es limitado es porque al
final tienen una cuota de pago entonces lo
(13:23) interesante es que pagando 19 euros al
mes te dan acceso a todos los modelos O sea creéis que este podrías ahorrar como que o sea digo
yo si soy un usuario y quiero empezar antes antes pago esto digamos que digo para el abanico
global no puedo o sea por cantidad no por calidad por cantidad paga 19 y tengo acceso a gp4
acceso a Cloud a un montón de agentes y realmente esto O sea yo sigo pensando que es un proyecto
que está de [ __ ] hecho porque es que nadie va a consumir este consumo de apis ellos un negocio
de Cuerda consume por
(13:59) Api Pero a ti te cobran un estándar no Entonces es como en
fin está súper bien pensado está esta idea Entonces yo probaría por ahí yo yo le estuve dando
vueltas a hacer algo parecido cuando cuando empezaban a salir todas las apis y dije por lo mismo
nadie te va a llevar al límite que tú pagues al mes tal Pero lo primero que pensé que lo que me
ha venido a la cabeza cuando estaba diciendo esto es que aunque tú estés consumiendo la Api gpt
4 para seguir teniendo el code assistant todas las cosas nuevas que vienen saliendo y que
(14:30) no estén disponibles en la appy y a lo mejor eso sí que aporta un valor mayor y al
final acabas diciendo ostras es que sí me estoy ahorrando pasta con esto pero me estoy dejando
funcionalidades importantes en otro sitio y a lo mejor la gente siempre prefiere irse allí a
utilizarlos Pero bueno que para para usuarios que están empezando y quieren probar todos los
modelos 19 pavos al mes por esto es una ganga vale la mía la mía noticia hay mucho clickbait en
la noticia pero me parece interesante vale el Leo el titular de la noticia porque hay
(15:08) que hacer es bueno los esfuerzos que hay en hacer clickbating una y a China crea el
primer procesador sin intervención humana es cuatro mil veces más rápida que sea gpt o sea vale
en crear procesadores como era la noticia correcto o sea lo interesante que a mí me parece como
o sea me parece un caso de uso ahora contra la noticia muy muy interesante porque básicamente Lo
que sucede es los chinos claro envidia es una empresa americana vale Y claro ellos son los que
están proveyendo todo el tema de los cpus y todos los procesadores que al final se
(15:49)
necesitan para todo el tema de Inteligencia artificial pescar un poco el comentario ya hablando
a nivel Macro político del que no tenemos ni idea fuerzas chinas Estados Unidos las competencias
de Mercado ta ta ta claro china no tiene acceso a todo eso dicen no tengo ni idea entonces claro
un poco la como no tienen acceso a eso lo que han puesto es han puesto un modelo el kiment 1 a
diseñar un procesador que esté capacitado para pues ser el equivalente a las versiones del del a
100 o del H100 de envidia Entonces es como curioso que
(16:23) realmente en cinco horas
quitando clickbait y todo eso sabes realmente que haya conseguido lo que ellos dicen Pues Oye es
que es 4000 veces más inteligente que gpt 4 Más allá de eso de si lo es o no creo que lo que es
brutal es que realmente este caso de uso de El no me va a montar el Hardware pero yo sí soy
capaz de entrenarlo dándole todo mi inventario de de productos y que él de forma inteligente
empiece o sea yo le doy el frame de donde irá el microchip y todo eso y yo y realmente empieza a
hacer el diseño de toda la electrónica eso es una
(17:06) cosa que me parece como muy
interesante y es un caso de uso que creo que a día de hoy sí es mucho más aplicable de lo que
nos pensamos Sabes porque al final un microchip Oye si es este condensador esto puede enganchar
con esto con esto y con esto este condensador no ocupa 3 milímetros o bueno o tres centímetros o
sea y al final son parámetros que si lo pensamos son bastante básicos sabes o sea son bastante
básicos en cuanto o sea hay que entrenar lo que que no le quito mérito pero me pareció muy
interesante
(17:33) el que es lo hemos visto en todo el tema de detección de radiografías y
todo eso que es algo como el ojo humano no es capaz de ver ese tipo de cosas o en el sistema
astronomía en la gastronomía no es capaz de detectar cierto tipo de movimientos planetarios no
como cuando se descubrió Plutón pero yo no me lo había planteado en diseñar cosas que también
son con perdón de la presión trabajos de chinos sabes O sea que es básicamente pues diseñar un
microchip o directamente un procesador entero entonces bueno esa es la idea más
(18:05)
allá del clickbait me pareció muy interesante porque cuando decía al final dentro de cinco años
habrá cpus mejor diseñadas por Inteligencia artificial que por humanos es que me parece que
evidente que va a ser mejor porque es que es mucho más eficiente hacer este tipo y todo este
ensayo error ensayo error sin yo meterme a meter una cantidad de aplicaciones muy fuertes que
eso es un poco lo que pasa es que yo me imagino La idea inicial es como imaginarte el tío con la
maquinita montándolo que eso también va a llegar
(18:34) pero es que no necesito llegar a
eso para entender que el propio diseño que es lo que me dará rendimiento eso es lo que es
potente y luego ya se ensamblará y ya será otro otro pero es que solo el ensamblaje ya es otra
cosa Sabes entonces bueno esa es la noticia y me pareció bastante interesante la verdad es una
barbaridad porque encima es que es aplicable a todas las cadenas de proceso de producción del
mundo cualquier cosa hacer relojes hacer coche hacer No sé qué O sea llegar a puntos en los que
esa producción sube a nivel el
(19:05) mismo ejemplo lo comentamos aquí o sea seguro que se
ha hecho de otra forma pero pero grandes rasgos lo mismo Esa esa vacuna que se hizo no nos
vacunaron antibiótico que se hizo en base a este en mi laboratorio tengo todas estas estos
elementos químicos que puedes unir generar un antibiótico para tal a través de randomizar de no
sé qué no Cuántos y detestar en cada una de las pruebas al final acaba saliendo Una que esos
científicos son capaces de producir en ese momento porque tienen esos recursos disponibles en el
propio laboratorio
(19:37) pues es que es una barbaridad Y lo del procesador esto es
también muy relevante porque ya no es solo que seamos capaces de producir procesadores más
rápido sino que al ser capaces de producir un procesador más rápido seremos capaces de hacerlo
de mayor calidad cuando se normalice esto y al final la computación tal y como la conocemos los
ordenadores personales también tendrán otro salto grande de tecnología precisamente por
impulsado por la Inteligencia artificial esta semana Now no diremos nombres Pero has estado
hablando con alguien del
(20:09) mundo de la computación cuántica y que Esperamos que en
algún momento venga el podcast y seguro que va mucho por la línea de esto no que al final es
algo tan teórico tan complicado de llegar hasta ese punto que tienen que apoyarse todas estas
técnicas para poder ser capaces de hacer todos los cálculos para para predecir un poco Hacia
dónde van estas tecnologías Muy bien pues voy yo con mi notificación totalmente de decir que
gracias a que Álvaro me la ha pasado y tenemos noticia hoy por mi parte Así que muchas gracias
(20:42) Álvaro hablar de un artículo de Open hay que bueno Están últimamente publicando mucho
Sobre más sobre la parte ética que sobre su propio producto yo creo que también es un poco de
nombrar que al final ese hype que sufrimos en febrero marzo en el que ahora apenas hace una
presentación ahora la hace Microsoft ahora hace Google pues se va normalizando ya estamos en el
punto es en el que ya no nos enfrentamos a tantos a tantos cambios en los diferentes modelos
además llega el verano todo el mundo se va de vacaciones y bueno
(21:21) últimamente están
más hablando sobre sobre ética sobre futuro y demás más que sobre su propio producto no lo
curioso de esta noticia es que había un párrafo que me ha gustado mucho que creo que es
importante reseñar se habla sobre la super alineación que están desarrollando para que la súper
inteligencia sea capaz de llegar en algún momento en ese artículo hablan sobre que la
superinteligencia será por mucho más inteligente que los humanos y ahí sí que empezamos a hablar
de Terminator y de rollos similares y entonces como que
(21:54) están preocupados entre
comillas por por controlar a esta superinteligencia no y lo que me ha gustado mucho de este
artículo es que lo que nombran es que están dedicando un 20% de la computación que actualmente
tienen para investigar lo han planificado así Durante los próximos cuatro años a resolver el
problema sobre cómo alinear esta superinteligencia con los intereses que tenemos ahora mismo de
proteger el ecosistema humano entonces como que me parece una una apuesta una inversión muy
grande que inviertas el 20% de algo tan
(22:32) valioso como los recursos de que es ahora
mismo para Open que recordemos que Open dio una entrevista no oficial y en una en una empresa en
human Loop y luego human look retiro ese artículo y en esa esa entrevista que Dios amalman se
decía que su mayor problema ahora mismo es escalar el uso y que no están utilizando por ejemplo
el multimodal porque no son capaces de tener capacidad de computación suficiente como para
lanzar todas estas cosas Pues ahora sale una noticia diciendo que están dedicando el 20% a
investigación por eso también se
(23:06) ve un poco ahí esa filosofía de openide de Bueno
nos hemos convertido en un bicharraco Pero por otra parte seguimos siendo un laboratorio de
Inteligencia artificial Que quiere un poco indagar Investigar sobre nuevas cosas no entonces
bueno iremos viendo como como lo plantean en el artículo hablan de cosas interesantes sobre que
ahora mismo son capaces de unificar diversas inteligencias artificiales pero para generar una
súper Inteligencia artificial debería un montonazo de estas inteligencias artificiales y generar
ese
(23:37) ese esa gran estructura y eso es lo que ahora mismo no son capaces de hacer la
semana pasada comentamos que se había filtrado un posible una posible arquitectura de cómo
funcionaba gpt 4 que era al final conectar ocho modelos A lo mejor es que esta gente ya está
investigando en conectamos 100 200 300 modelos e intentamos conseguir conseguir algo así más
grande no así que bueno artículo un poco burocrático pero pero me ha gustado mucho Esa esa parte
de dedicar el 20% de su computación a la investigación tampoco tenía mucho
(24:11)
alternativa Víctor de que no te gustara que estaba Álvaro pues Álvaro me da opciones no pero que
yo yo esta semana está siendo muy complicada la audiencia no pero que yo pienso que pienso que
es súper importante la de computación y luego es eso sí si realmente parte de sus esfuerzos en
vez de ese 20% un 10 deberían de dedicarlo eso creo que lo comentamos no sé si en el episodio
octavo o séptimo el tema de que Google ya había conseguido reducir un 40% el consumo de
procesadores por optimización de recursos o sea un poco el uno es o
(24:59) sea es esta
idea de montar un procesador eficiente pero es que claro es que la misma lógica aplica en cuanto
o sea más potente disculpad pero también tenemos a Google según la noticia desarrollando o sea
dedicando esfuerzos a optimizar los recursos que eso es una parte o es una pata como muy muy muy
correcta No si lo ves como una empresa es más ingresos es vender más pero es que los costes es
tu procesamiento porque más sea del equipo es en computación va a tener unos costes brutales
entonces me parece como muy
(25:31) acertado esa parte que quizá no sé cuánto le están
dedicando los de openay Y si les interesa me parece inteligente que Google sí lo esté haciendo y
luego para mí sigue siendo una alegría la noticia que dice la semana pasada de que GP de 4 fuera
la amalgama de varios de varios modelos porque ya también lo estamos viendo con todas las
entrevistas que estamos teniendo con gente que está en el mundo ya lo estamos viendo que incluso
lang Chain estaba montando a agentes específicos para micro tareas y básicamente lo que nos
están diciendo
(26:01) los expertos era Oye mira es que en el momento que el tío que pones
una gente hacer muchas cosas se pierde Entonces al final es mucho más primero que me parece
mucho más mucho más de las mejores noticias que yo he oído mucho tiempo no la de que sean una
amalgama de varios modelos porque es que eso es lo mejor que puede pasarnos que realmente sea
una amalgama de muchos modelos no Y nosotros añadiendo los que van siendo útiles y los que no
van siendo útiles no los pones Pero que sea lo típico de no tiene un trillón de parámetros de no
sé qué
(26:30) hostias que eso parece bastante difícil de digerir sabes y ya lo ves en
todos lados en las empresas es famoso el modelo de Google de micro equipos en el O sea que en
todos lados parecen la misma dinámica sabes que sea mucho mejor poco ensamblado y ágil que no
una una catedral de parámetros datos y eventos entonces Bueno me parece interesante por esos por
esas aristas también la noticia a nivel empresarial tiene bastante sentido Por ejemplo pensando
en Palm Que bueno lo tenemos ahí un poco apartado no pero ya cuando hicieron la presentación
(27:07) los de Google Cloud Google ya nombraron que iban a entrenar a medpal y al de
ciberseguridad de tal Y tiene mucho sentido no porque Claro si tú dejas que usuarios hagan
preguntas en Google médicas y te va a contestar el Google el Palm genérico pues se va a
equivocar pero si hay algo una Capa intermedia una gente o un modelo específico un router que es
capaz de diferenciar A dónde va te vas a asegurar que todas las preguntas médicas vayan a medpad
que está súper optimizado para eso que tiene una fuente de información
(27:41) muy concreta
que no se va a salir de ahí que sabes con que lo has entrenado que no lo has entrenado con
cualquier blog que esté hablando sobre medicina entre comillas y te vaya a decir algo O sea que
a nivel empresarial también se cubre mucho las espaldas y lo hacen de esa forma entonces bueno
iremos viendo yo la verdad que también me Mola ese concepto lo curioso es que ya lo comentáis la
semana pasada en el artículo decía lo contrario decía cuidado qué Open ahí no ha reinventado las
ruedas simplemente ha juntado ocho ruedas
(28:10) se ruedaban mejor que uno que has unido
las dos noticias que te daba así de una forma sin darte cuenta prácticamente están ahí con los
de Clínica Mayo O sea que sí sí Bueno simplemente Eso me parece que tiene sentido Bueno pues
vamos con el tema de la semana que no hemos dicho nada esta semana ha habido Revolución otra vez
porque Open hay anunció durante el mes que viene Vais a empezar a utilizar y el día siguiente Ya
teníamos activado el código intérprete Y la verdad es que bueno está internet haciendo pruebas y
(28:55) subiendo vídeos tweets en linkedin tal Y ahí tal cantidad de casos de uso que es que
parece que nos hayan dado otro chat gpt y estemos otra vez enfrentándonos a esto es una
barbaridad cómo lo habéis vivido vosotros que estáis ahora mismo que es lo que estáis haciendo y
en qué punto de hype estáis porque yo ya he escuchado algo de arma o antes y algún speeds
tenemos ahora mismo sobre sobre eso pues yo en mi caso estoy bastante hypeado o sea lo estuve
probando Así que es verdad que me dieron acceso que de hecho os lo pasé pues dije mira ya tengo
(29:31) acceso Me parece que fue el jueves pasado o algo así tuve tuve el acceso me puse a
jugar con ello y creo que nos lo abrieron a todos a la vez y no sé se alinearon los astros que
justo entre y mi primera experiencia fue [ __ ] Qué [ __ ] es esto porque cada vez hacía una
pregunta Esto está bloqueado esto no sé qué no proceso el documento el documento está dañado o
sea estuve los primeros créditos me los fundí simplemente en eso pero a la que dejé que bajara
todo toda la vorágine de gente ahí testando como locos y empecé a
(30:04) probarlo al día
siguiente la verdad es que los resultados me han vamos me están gustando me están gustando
bastante Quizá antes de entrar en opiniones podíamos explicar un poco qué es y qué limitaciones
tiene y así un poco en materia si os parece que no sé si que queréis explicarlo alguno o tiro
millas Pues nada básicamente para que no lo sepa el código interpreter Es un complemento que han
añadido en chat gpt que está en beta como la mitad de las cosas que estamos probando y que nos
permite dentro de dentro de gpt 4 hacer
(30:38) una instancia que pueda ejecutar código de
python no solo eso sino que además podemos subir archivos para que se puedan procesar dentro de
esa llamada a ese color vale tiene una serie de limitaciones ojo que dicho código en python no
es código en cualquier lenguaje de programación es en python Aunque hay ciertas limitaciones
Aquí y ahora veremos cosas interesantes limitación número uno que no tiene acceso a internet
Vale que eso hay mucha gente que se está quejando pero ahora veremos que bueno esa limitación es
(31:09) bastante lógica luego hay una cosa interesante que es que esa instancia de la máquina
que te están dando es durante un período de uso y si no la usas de forma activa muere y pierde
todo el contexto que parece una tontería Pero hay veces que estás haciendo un análisis te llama
alguien por el chat haces no sé qué vuelves Y te has quedado sin sin la mitad de la información
que estás procesando ahí o sea que eso es un punto interesante luego carga un máximo de 100
megas por documento aunque ya le han hecho jailbreak a esto y ya eso se le han
(31:39)
saltado solo ejecuta código de python como os decía y ya se lo han saltado también no permite la
instalación de paquetes externos pero también se la han saltado Entonces eso está bastante
bastante Guay hay un desarrollador polaco que lo dejaremos en los comentarios que se llama scals
o algo así luego os lo pondremos ahí y este tío tiene una web vamos una URL en github donde va
contando Cómo se ha saltado las diferentes etapas y cómo lo documenta como lo ha hecho y tal Y
está súper chulo Pero al final básicamente casi todos los hackeos o los
(32:20) saltos
estos los jailbreak que están haciendo es básicamente que como te deja subir archivos claro
suben cualquier cosa Vale entonces al poder subir Cualquier cosa pues subes un paquete de otra
de otro lenguaje de programación lo instalas pues ya ejecuta javascript por ejemplo o como te
deja navegar por la estructura de carpetas pues se han dado cuenta que podían navegar por la
estructura podían ver todo el árbol podían ejecutar un modelo que había allí como gp2 o podían
cambiarle los permisos a la estructura de carpetas y en el
(32:49) momento que le cambiaban
los permisos podían instalar lo que les diera la gana o podrían cambiarlos los parámetros de
configuración con lo cual lo de las limitaciones vamos es acojonante la verdad es que la gente
nos van a quitar el código intérprete la semana que viene no estamos listos todavía estaba súper
chulo Pero bueno hacía limitaciones oficiales serían serían esas y ahora ya si quieres arnautas
tu parte de hype Sí o sea yo yo tengo mucho hype sobre una parte concreta del de lo que puede
hacer con intérprete además de lo que habéis dicho
(33:24) también permite que son cosas
que son bastante interesantes ahora cuento si si lo he conseguido no porque es que esa es otra
pero cosas como me valen súper potentes como realmente extraer el texto de una imagen vale eso
según fotos porque yo ya digo yo eso no lo he conseguido sabes se puede extraer fotos de una
imagen se puede extraer información de un PDF también otra cosa que yo tampoco he conseguido
vale se pueden pasar de imágenes a vídeos eso lo he conseguido pero con un Chrome que
sinceramente no se me había ocurrido
(33:56) nunca vale que básicamente es yo cogí una foto
una foto larga le digo Oye intenta estropeármela o sea intenta partírmela intenta hacerme un
Carrusel de izquierda a derecha vale Yo lo probé usando mis propios no lo conseguí luego
conseguí encontré un tío que lo había conseguido y es que el prompt era ayúdame a convertirlo en
un vídeo con relación aspecto 3/2 con la imagen llenando todo el vídeo el vídeo debe estar
centrado en el centro de la imagen a continuación desplaza el vídeo suavemente sin saltos de la
siguiente
(34:25) manera inicio centro derecha y centro izquierda centro fin utiliza la
librería y majeo para ayudarte guarda los fotogramas directamente en un archivo de vídeo en
lugar de una lista utiliza un paso de fotograma de 8 píxeles si es necesario recorta los bordes
de la imagen para que el tamaño de la imagen sea divisible por el paso del fotograma vale Así
consigues hacerte una una persona ya lo he hecho antes no entiendo cómo no se te ha ocurrido
pues entonces realmente yo todas esas funcionalidades son súper potentes y yo creo que la
(34:59) parte que es aún más potente es la de convertir csv a código yo no lo he usado porque
no me he encontrado con la necesidad o el caso de uso pero creo que es un pepino la verdad lo
que pasa es que pienso que es un pepino en beta y y yo pienso que a día de hoy para mis usos el
que más o sea el que más posibilidades tendría sería obviamente poder subir PDF y hablar con él
estilo mata que a día de hoy no lo permite o sea lo permite pero no lo consigo yo por los
motivos que sea pero a mí lo que me parece más interesante es
(35:38) limpiar limpiar o sea
limpiar y estandarizar datos Yo pienso que allí es esa parte va a ser para mí la más potente de
todas todas todas todas porque creo que uno cuando los que somos analistas y trabajamos con
datos como tengas datos de muchas Fuentes es literalmente un horror o sea un horror ya solamente
en contabilidad tiene en descargarte ficheros de bancos ya te das cuenta de que cada uno lo como
quiere uno o sea no hay una normalización Entonces yo ese proceso de normalizar Creo que creo
que para mí va a ser para mí ya me
(36:15) está ayudando Yo es ahí donde creo que va a ser
más potente hago ahora hago un disclaimer ojo que Open dijo No tengo no sé si vosotros esta
información pero dijo que nosotros no entrenamos el modelo con los datos que vienen De Api pero
si entrenamos el modelo con los datos que vienen del chat Entonces yo no sé si vosotros habéis
visto si cot intérpretes se amplía a eso pero vamos es el chat con la función de cot intérprete
Entonces eso me parece que vale muy bien pero a ver qué datos le metes allí porque para limpiar
y
(36:44) estandarizar yo te quiero volcar el csv completo no te quiero volcar una
muestrilla que luego no sé si cumple todos los casos de normalización y demás Entonces hype por
lo que puede permitir no hype por por todos los flancos que hay detrás de esto no si entrena el
código lo que dicen que hacen o lo he visto y no lo permite Bueno yo estoy un poco a esperar por
donde mejoran esto la casuística a la que me he enfrentado ahora que estás diciendo limpieza de
datos y me ha parecido brutal mi primera sensación cuando lo vi fue un poco de
(37:29)
Bueno yo ya estoy programando ya tengo una ventana de python abierta programamos bastante en
python todos los días creo que no necesito que algo me ejecute código en el navegador porque lo
estoy lanzando yo en local y ya tengo comunicación conté y estoy yo programando cojo el código
Lo pongo aquí tal y sobre el papel dije No creo que para mí vaya a ser algo relevante Y entonces
me puse a probarlo y me di cuenta de lo equivocado que estaba habéis traído casos de uso que
habéis explorado por comentar algo por comentarios el mío o esperarme a que tu
(38:13)
línea y opinamos sobre eso un caso súper seo de limpieza de datos y de proyección e intenté irme
como a lo más genérico como si no supiese como si esto no lo hubiese hecho nunca no me fui a
esas consol y me bajé de esas consol el report de del panel de rendimiento que te permite
extraer de mil filas en mil filas no Bueno yo todo esto normalmente yo tengo una base de datos
que se conecta a ser consultor todos los días se baja toda la información me lo guardan un my
sickell y yo luego con power bi modelo los datos
(38:52) y a la base de datos de Google de
productivo Y entonces mezclo la información y me generó mis das voz a partir de ahí hago cosas
como calcular la el impacto económico que tendría subir una posición o no subirla dentro de todo
el proyecto seo y así es como define un poco la estrategia de dónde voy Vale entonces me llevé
este caso de uso precisamente a ese punto entonces pero a una forma más menos automatizada menos
conectada a bases de datos algo que podría hacer yo en un momento en el que necesito hacer algo
rápido y como he
(39:24) dicho arnau como esto lleva mucho tiempo de generar de limpiar
muchos datos dije voy a intentar conseguir un inside un dato de la forma más rápida posible
entonces me bajo de ser con Sol el ZIP entero que contiene cinco o seis tsv con miles de
registros cada uno literalmente creo que son mil registros cada uno o 10.
(39:49) 000 ya no
me acuerdo bueno que son consultas fechas países aparición en búsquedas dispositivos filtros
páginas Vale entonces se lo pasas y empecé pidiéndole un análisis exploratorio de los datos para
ver qué es lo que lo que podía conseguir encuentra los archivos descomprime el ZIP entra dentro
de los tsv nos dice Qué información hay dentro Vale entonces ahí ya empecé un poco con el con el
caso de uso entonces lo que le dije es Localízame Cuáles son los Plays en Google que ahora mismo
tienen una posición media más bajo de lo habitual o que están por debajo del 2 del 3 es
(40:27) decir sitios que tienen una capacidad de mejora de posicionamiento orgánico también le
dije que fuesen relevantes para mi proyecto No me digas long Tails no me digas nada similar
Entonces el propio sistema te empieza a decir que existen formas existen metodologías para
eliminar los out layers que son los elementos que que se salen de lo habitual Entonces
establezco como una serie de normas y le digo Quítame toda esta paja y céntrate en cosas que de
verdad son relevantes para el análisis no entonces el sistema
(40:57) me hace una lista de
muy sencillita de Cuáles son las posiciones los las palabras clave que tengo en peores
posiciones Dentro de este conjunto de mis normas cuando hablo de normas hablo de volumen de
impresiones y demás que de cosas que considero relevantes no Entonces por ejemplo lo primero que
me pareció es free tool free tool sansburgo que estamos en posición media según 7.
(41:25)
6 y luego fritura pena Atenas en español free tour Zamora free tour Atenas en inglés Vale
entonces es otro ordena por la posición media en la que estás entonces aquí ya me ha hecho con
dos frases me ha hecho un análisis de todo el documento me ha extraído Cuál es la información
relevante me ha quitado la paja y me ha dado realmente las palabras clave que puedo mejorar y
ahora digo me pongo sigo la comunicación con ello vale que esto es lo que yo suelo hacer en
Power bi le digo qué significaría que salzburgo pase de posición media 7.6 a posición media 1
(41:57) que sería pues fijarla Y de forma permanente en primera posición qué ganancia de
tráfico significa eso entonces aquí se por una primera parte se lo inventó me dijo Bueno podemos
asumir que la primera posición tendrá un ctr promedio del 30% y le digo el 30% lo has calculado
O te lo has inventado dice Bueno se ASUME que en el seo en la primera posición tiene un 30% dije
no vamos a calcularlo Y entonces coge mi propia info Y entonces genera una tabla que esto estuvo
súper chulo una tabla que le pedí que fuese un gráfico visual
(42:31) en el que montase en
un eje en dos ejes Cuáles son los ctrs promedios para todas las primeras posiciones de Uruguay y
agruparse los ctrs promedios por los casos de uso más habituales eliminando aquellos ttrs que o
son muy buenos porque no existe competencia o son muy malos porque aparte de tener buenas
posiciones al primero Pues hay muchos Carruseles muchos no sé qué te bajan ctr Y entonces te
agrupa todos los ctrs en este caso en un conjunto en un con una especie de cluster de cuáles son
los más habituales y te dice Vale pues en base a
(43:02) todo tu amalgama de datos cuando
estás en primera posición tu ctr va desde esto hasta esto digo Vale pues coge coge el punto
intermedio entre uno de estos y asumamos que ese es el ctr [Música] más habitual entonces
establecemos este torre más habitual y ahora lo que Considero que Mola que es que digo Vale pues
Ahora te coges Las mil palabras clave que tienes en el csv csv de consultas y aplicas este ctr
como como porcentaje de tráfico a ganar y me haces una resta entre el tráfico que tiene
actualmente los tiene actualmente y los
(43:38) clicks que consigue Digamos si aplicásemos
este ctr y me lo ordenas de forma descendiente por Cuáles son las palabras que más tienen Pues
todo este curro yo lo dicho yo esto lo hago de forma habitual en Power bi y montar el sistema de
base de datos me costó meses en los informes de Power bi lo mismo también me costó meses Pero
esto es una conversación de 20 minutos y en 20 minutos he hecho un trabajo brutal sin necesidad
de poner una línea de código cuando lo más complejo muchas veces era estar esperando a que se
ejecutasen todo
(44:06) esto que estaba con el móvil mirando Twitter mientras esto pasaba o
sea es que me parece que es tiene un potencial increíble lo que decía al principio al principio
decía Es que esto ya lo hago yo vale pero es que ahora cuando me vaya a una reunión y o estemos
sacando datos en tiempo real y no sé que no sé cuántos entre decir Vale pues esto te lo doy
mañana que me tengo que poner a hacer los cálculos y tal y decir vale Espérate un segundo que en
dos minutos lo tenemos tal me parece que es una auténtica barbaridad Y no sé o sea este es el
(44:33) único caso que yo he tenido ahora mismo al que me he enfrentado pero me parece
totalmente esclarecedor no sé qué os parece a vosotros pero me parece muy bruto a mí hay varias
varias cosas de lo que has lanzado que creo que son pequeños hitos que quizá hay que remarcar
que está muy interesante o sea el hecho de he subido un zip con varios documentos o sea ya no
estoy subiendo un documento varios documentos y estoy cruzando información y análisis entre
ellos o sea Eso me parece súper interesante luego una cosa que nos ha
(45:02) comentado
pero que también se puede hacer es Oye hazme este análisis y ahora que me has limpiado el
documento o ahora que me has cruzado esto esto generame un nuevo documento con esta información
y ya tengo un documento de análisis ahí diferente Que Luego encima te lo puedes descargar Le
puedes decir como archivo y te pone el link y tú te lo bajas y te lo miras luego en local y no
pierdes esa info ese contexto a futuro exacto y luego ahí hay otro punto más que comentabas que
es la resolución de los problemas yo creo que
(45:29) ese punto súper interesante o sea Al
haber metido un agente que va intentando conseguir el objetivo que tú le estás metiendo va
dándote soluciones en ese momento Y eso es una ventaja y una desventaja porque o sea tú te metes
una vez haces un proceso y te da una solución y te mereces otra vez haces el mismo proceso y te
da otra solución diferente porque las haces sobre la marcha Entonces es en consistencia en
función de Qué acción puede ser un poco frustrante pero hay veces que te da soluciones que a ti
no se te habrían
(45:58) ocurrido y que te pueden optimizar mucho más tu trabajo o te
pueden dar otro punto de vista o esa forma de pensar fuera de la caja que lo mismo no estabas
teniendo en ese momento Entonces creo que ahí hay varios puntos que son muy interesantes de todo
el proceso y que denotan también todo el potencial que hay detrás de una herramienta de este
tipo a mí a mí personalmente hay hay un remate que no hemos comentado que me parece muy
interesante que es que tras todo ese proceso claro ha habido una conversación como decías No yo
por
(46:26) ejemplo para estandarizar los datos que yo estaba en este caso probando de
datos de bitquery que bien 4 yo estuve teniendo una conversación con él Yo creo que el remate
final es decirle contras todo lo que hemos hablado y pronto inicial que yo te pasé hazme el
prompt que habiendo yo habiéndote yo dicho solamente eso hubiéramos llegado a esa conclusión y
yo creo que eso es súper potente porque eso ya se convierte en tu repositorio interno de broms
Claro que llega de ave quitándote todo ese tiempo y es verdad Víctor ahora o sea ahora
(46:56) manualmente tiene que Descargar sus archivos y subiéndolos al mywell y llevándolo a
otro sitio lo tiene ahora pasa que manualmente tiene que descargarse el ZIP pero ya y tiene que
subir al intérprete no pero claro es que la ganancia es que es brutal es Entonces yo pienso que
a un poco como yo lo estoy viendo que es lo que más o la cabeza es Oye pues ir convirtiéndome en
ese repositorio personal de datos yo por ejemplo No yo Un ejemplo muy tontorrón pero yo yo hago
mi propia contabilidad la mía personal y de mi familia No pues yo personalmente
(47:27)
cuando me descargo las cosas de los bancos de las inversiones y todo eso es un jaleo o sea
normalizarlo tremendo incluso cuando hago la puntada de cada de cada de cada cosa Hay muchas
cosas que se repiten sabes si yo soy capaz de montarme todo ese ese Chrome donde ya realmente le
digo Oye mira esta es la referencia incluso montar un sub zip o sea Perdón un súper elemento
dentro de ese zip que sea la clasificación de información o sea te da un juego tremendo y al
final tú puedes terminar montándote tu Pro tu zip que tiene los datos crudos de
(48:03)
trabajo y los y el csv de árbol o de esquema de datos o de lo que sea que te sirva no porque a
día de hoy por ejemplo es un poco lo que estoy trasteando con la parte de bicuertery a día de
hoy sigue haciéndolo mal pasando consultas sql cuando realmente no se da cuenta que hay hay
elementos anidados dentro de partes hay particiones de datos entonces claro la lógica que yo
percibo es el prompt de refinado pero que en ese zip no solamente haya datos crudos sino que
también haya referencias sobre las que pueda trabajar Yo pienso que eso es nos
(48:37)
permite trabajar con árboles de arquitectura a nivel deseo nos permite trabajar o sea con un
montón de cosas que puede referenciar para llevarlo al otro sitio Entonces yo pienso que eso es
una cosa también súper súper potente hay un hay una cosa que no hemos comentado y me ha venido
ahora a la cabeza con lo de con lo de clot el tema que has comentado antes tú arnau de las de
las sugerencias esto también cuando cuando nos liamos a analizar datos hay veces que tienes
parálisis por análisis que estás analizando y tienes un montón
(49:06) de información y
dices ostras Estoy saturado Pues también Es una herramienta de desbloqueo O sea tú le das vamos
a leer estos documentos Qué información interesante podemos extraer de aquí y te va a dar
recomendaciones de análisis que puedes hacer entonces también para ese tipo de cosas que siempre
decimos Oye para darte sugerencias de ideas formas yo que sé nombres temas de diferentes
acciones que puedes hacer Pues aquí igual nos puede dar diferentes recursos de análisis que lo
mismo no nos habíamos planteado y igual
(49:35) que nos da diferentes soluciones de código
nos da diferentes formas de afrontar un análisis de datos entonces creo que ese punto también es
muy interesante vosotros sabéis si realmente Hay algún riesgo en cuanto al tema de rgp o sea
porque yo pienso que está aquí estamos hablando y lo hemos hecho un poco caso omiso a mi
comentario pero claro para que eso te sea útil o sea realmente es que se le está subiendo datos
sabes es decir por ejemplo No yo pensaba hace ya un tiempo con un cliente de social web lo que
hicimos fue
(50:04) modelarle el para conectar por ejemplo el crm que tenían ellos con con
a nivel de leads lo que hacíamos era enviábamos el ID de sesión de Gea 4 no Bueno entonces claro
qué pasaba que esa información al tenerla con él con el evento del lead nosotros en zoho
podríamos Descargar podíamos unificarlo y ver el tráfico cuánto terminaba en venta no es decir
no solamente lo típico de ahora que son herramientas de leads si no hay mirada aquí podemos
llevarlo a este este en canal orgánico entrar a un 200 se cualificaron 40 en Pay entraron
(50:38) mil Pero esto se cualificó uno no pues esa información que ahora es súper fácil O sea
si tienes el nexo es subir dos tips o sea dos csv es súper fácil de hacer hasta ahora no podía
riesgo Claro está subiendo información de negocios que ya no estamos hablando de meterle un
código de no le quito y no le quito el riesgo al código de subir código de como lo que decía
Samsung que comentábamos pero [ __ ] es que nos vamos a enfrentar ya os Digo por si lo sabéis
porque es que pienso que es un todo o nada para un montón de negocios que realmente la
(51:10) privacidad Yo pienso que es una cosa relevante Y es que estamos hablando de lo más
sensible que podamos tener que son datos o sea son datos de negocio específicos no sé me parece
como muy muy fuerte la verdad no sé si vosotros sabéis si se puede si hay algún riesgo en cuanto
a O sea si entrena el modelo si le sirve de algo de esos datos Sí que bueno lo primero Open hay
fue baneado en Italia por no cumplir la rgpt y le liberaron el baneo En aquel momento porque en
teoría empezaron a aplicar una serie de cambios que sí que lo hacían
(51:43) eso lo primero
que en teoría ahora mismo es complian y lo segundo es que en opening si tú te metes en la parte
de settings en Data Controls hay una opción que es la de no permitir se llama chat history and
training que en el mismo check tú haces que el modelo no permita almacenar la información de tus
conversaciones y No utilice esas conversaciones para improve Our models o sea como para entrenar
Más allá de que lo hagan de que no lo hagan o sea es difícil saberlo no pero bueno yo tengo esas
esas dos esos dos
(52:19) insights de que a día de desconme y tienen una opción para
eliminar el entrenamiento de datos en base a simplemente un check de una configuración entonces
para los datos así más más delicados posiblemente sí que estén protegidos no sé a mí desde luego
no me genera mucha confianza cuando las empresas ya están diciendo a sus trabajadores que no lo
usen con sus datos propios ya si partimos de la base de este tipo de afirmaciones y que luego
que las grandes empresas les estén dando modelos o accesos en sandbox Bueno aquí
(52:58)
algo de información lo mismo no te cogen cierta información que sea delicada de sexo de yo que
sé de lo que sea no de información médica o cosas así que pueda ser más más arriesgada pero yo
me fiaría poco de que los datos no los vayan a usar que lo mismo no lo usan para entrenar pero
lo usan para otra cosa Sabes que la gente va a subir De Api la gente va a subir datos de lo que
decía El ejemplo este mismo que es un ejemplo muy útil para mí o sea ver cuánto Ver cómo
cualifica un canal sabes que es cruzar datos de tu presta o de tu o de
(53:35) tus ojos o
de tu hubspot y los datos de GTA 4 por ejemplo es una cosa súper tontorrona muy fácil de hacer
ahora y antes tenía su ingeniería montarlo sabes pero es que vas a subir datos directamente el
formulario de Víctor arroba social web sabes O sea que esos datos de nivel de sensibilidad alto
ya no es un nivel de de bueno eso lo típico Oye pues goodwalker en logroño no posiciona bien
bueno ser sensibles Pero bueno que eso es crapeando resultados lo puedo ver sabes pero es que el
otro me parece hay otros datos mucho más privados que
(54:10) son son preocupantes a nivel
De Api sí que está el formulario este famoso de hacer optin o no de permitir o no permitir que
eso en teoría sí que hayan dicho que sí que se fijan bastante en eso y que están súper
concienciados y lo tienen la política de privacidad y tal Ya que lo hagan lo de siempre no tal
pero en teoría Tú sí que puedes decir que los datos que reciben desde tu Api no los utilicen
para para es al contrario al principio hasta la liberación de gpt 4 en la Api utilizaban todas
las llamadas para entrenar los
(54:42) modelos Y a partir de ese momento se te han por
defecto que no se utilice esa información y tú puedes solicitar y tú puedes decir Bueno pues que
utilicen la mía y lo que puedes hacer es ha pasado decir Oye utilizas tu información en el
pasado extrae la de aquí o sea sácala de aquí tiene mucha potencia a nivel De Api no sé a nivel
de interfaz yo creo que yo creo que una de las mejores cosas que hemos comentado hoy es lo de
poderlo guardar como un zip Porque pienso que eso te da mucho o sea yo a mí no se me había
ocurrido Esa esa opción y pienso
(55:19) que la diferencia es que es que es enorme sabes o
sea porque de un documento que tenga este agrupando o cargarlo todo a lo bestia o sea aprender
por un lado no hacer como tu propio trabajo Es decir primero Voy subiendo csv a csv para que el
poderlo trabajar y luego yo cuando lo suba un zip Ya tengo los pedazos de pront que necesito
para que todo ole aunque si lo sumo toda lo bestia Pues no sé si eso lo va a [ __ ] bien o no O
por lo menos si tiene un nivel de refinamiento muy alto pero pero lo otro me parece súper
interesante
(55:47) realmente que pueda subir un zip porque digo es que eso te da mucho
juego datos esquemas de datos es que lo bueno que es lo que ha dicho Álvaro que me parece un
detalle muy importante que cuando hablas de de intérprete al Gran porcentaje de gente que lo
verá y dirá Ah qué chulo con intérprete hay que hay que interpretarlo como un VPN un vps que
está está en la nube tú tienes un pequeño espacio de un servidor y tienes espacio de computación
y de almacenamiento Entonces es temporal es lo que ha dicho Álvaro se te cierra el x
(56:25) tiempo y dejas de poder utilizarlo pero durante esa ventana de que tú estás utilizando
lo puedes almacenar lo que quieres ahí Imagino que tendrá sus limitaciones de espacio y todo el
rollo pero al final si tú subes un zip Y a lo largo de la conversación le dices ahora
descomprimes y este archivo lo partes en tres y ese tal No es no está pasando a nivel contextual
no está pasando en su en su capacidad de ventana de contexto que está entendiendo los datos y él
en esa conversación está separando sino que físicamente entre comillas está
(56:55)
dividiendo esos archivos como tú solo estás diciendo y están existiendo en esa en ese en ese vps
y lo mismo si tú ahora mismo le pides un código de generarse miles de archivos de forma
automática y te generase un zip pues salvo que haya limitaciones de computación y todo eso lo
podría hacer entonces es que es como tener un vps en la nube asistido con sus limitaciones de
que no tiene internet que por cierto hemos dicho algo muy importante que bueno ya se han saltado
y todo el rollo pero uno de los motivos principales por los que no tiene
(57:26) internet
es primero imaginaros un qué opináis sea capaz de que nosotros seamos capaz de ejecutar desde
opening llamadas a internet con esta potencia para hacer lo que nos dé la gana lo cual sería
abrumador Pero luego imaginaros que pasa mucho que instales que lo que también lo comentó Álvaro
esa noticia que instales un paquete malicioso porque te ha dado una información errónea y
entonces metas dentro de tu código de python un paquete que te has descargado de un repositorio
no validado y por lo tanto te esté alterando los datos robando
(58:00) Triunfo almacenando
de cualquier forma tal entonces lo que han hecho es como una especie de vps súper estanco para
intentar protegerse lo máximo posible no pero vamos o sea hay que hay que asumir que es eso hay
que asumir que es un vps en el que tienes un intérprete de python y no tiene conexión a internet
tú tienes una ventana de conexión con él y es un asistente de eso y tiene su almacenamiento
físico su tal y lo mismo que podrías hacer allí de forma manual y calentando ante la cabeza lo
puedes hacer Aquí súper sencillo yo
(58:34) os lanzo os lanzo una pregunta que yo me lo
está preguntando desde desde el principio creéis que es el mismo modelo que gt4 yo he dudado eh
yo he dudado sobre todo por por el contexto porque claro aquí pasan cosas cuando tú inicias una
conversación sabes que tienes 4.000 tokens 8.000 tokens de conversación lo cual conforme la
conversación va avanzando Esa esa ventana va cambiando y los datos son diferentes No aquí como
tienes un anclaje a la a la realidad al punto de conversación siempre tienes esos datos a mí me
ha generado mucho mucha mucha
(59:11) confusión Porque mucha confusión en cuanto no sé cómo
está funcionando no que no no me haya servido que al contrario me ha servido una barbaridad
porque la conversación era muy larga además cada explicación era Era enorme con mucho tal y
siempre tenía el contexto siempre sabía lo que estaba haciendo no me pasaba lo de antes de tal
entonces no sé si es que estamos probando como el gpt 4 de 32k que nos han dado un contexto
enorme O es que como tiene ese anclaje los datos en tiempo real cada vez que pierde el contexto
como sigue teniendo acceso al
(59:41) dato sigue siendo capaz de recuperar de lo que te
está hablando y entonces es capaz de mantener el contexto de una mejor manera pero yo creo que
los razonamientos que ha hecho en esta prueba que yo he hecho con gpt 4 pegando los datos
incluso reduciéndolos no teniendo mil líneas de palabras clave metiéndole 10 no habría sido
capaz de mantener una conversación tan larga solo con con esa info creo que algo Hay no es el
qué Pero creo que es mejor que gpt 4 yo yo mientras hablabais pensaba o sea ahora creéis que
quizá sería las
(1:00:18) ventanas de contexto se solucionarían pudiendo referenciar la la
el punto de la conversación donde se menciona eso o en su defecto la versión inicial no sé es
decir que al final decías mantiene mucho la conversación y yo pensaba como cuando estamos
conversando no es verdad que yo mantengo un contexto pero también me hilo a un punto de la
conversación sobre la que estoy hablando y eso es mucho más fácil no entiendo de no no no
utilizan tácticas técnicas para eso o sea porque el propio lanchain que lo comentó una persona
con la que hablamos
(1:00:54) hace poco que la audiencia todavía no sabe el propio lanchin
tiene diferentes formas de almacenar información en base a Te guardas el principio y Te guardas
el final Te guardas los últimos cinco mensajes Te guardas tal Y entonces si lanchin ha hecho eso
pues entendemos que gpt que es mucho más avanzado pues llevan tiempo trabajándolo Entonces si
tienen diversas formas de almacenar el contexto de la conversación o sea esa es que sí siguiendo
un poco o sea todo lo que venimos comentando quizá con intérprete es un sub punto más de la
(1:01:26) amalgama de GTA 4 no y de ese de ese de esa amalgama de 8 modelos quizás uno
particular que tiene prioridad sabes y en cuanto a conversación resulta que es que lo que
hablamos como gpt 4 que es la amalgama de ocho cosas pues quizás solo la que hace referencia a
texto es una específica pues es el Da Vinci 004 me lo estoy inventando entonces Y es el que
tiene prioridad Entonces nosotros hablamos de si es lo mismo o no pero es que realmente lo mismo
no puede ser porque quizás el gbt 4 no tiene anexado este este nuevo modelo en cuanto a
(1:01:56) computación pero si el este tiene el apoyo textual de digo porque quizá es más puede
ser porque también los códigos que genera lo genera mucha más velocidad fallan mucho menos que
esa también es muy relevante porque yo lo he contado muchas veces no que yo para conseguir una
conversación fluida con gpt mientras estoy programando los proms son así son te paso de ejemplo
Te paso el cuerpo te paso como quiero que me des el formato Y entonces lo hace bien aquí es todo
lo contrario aquí es en dos frases me genera todo un análisis de datos súper
(1:02:29)
complejo es capaz de extraer datos marginales centrarse en los importantes Entonces está fine
tuneado este entrenado para ser un codo intérprete bien hecho puede ser el módulo número 8 de
gpt que está centrado en la computación en desarrollo y no sé qué que lo han extraído y lo han
puesto aquí directamente a trabajar puede ser así a mí el único detalle va a llegar ahí sí
Perdón quería Quería llegar a ese punto también que es como como un modelo más más fino en la
parte de código y lo ves No o sea el mero hecho de que bueno de que vaya tiran y
(1:03:08)
tirando sobre sus problemas tú cuando te enfrentas con el código seguramente yeras muchas más
veces y dándole mucho más contexto aquí es como que itera menos y que te suele dar soluciones
mejores a la primera y luego razonamientos más adecuados el otro Quizá no te razona o no te da
diferentes soluciones entonces bueno mi pregunta iba un poco por eso yo tenía la misma la misma
sensación a mí no el único tema que a mí me pasó fue que haciendo pruebas con el tema de los
pdfs vale de a ver si era capaz de que me leyera un
(1:03:39) PDF me me dijo Ah para hacer
esto voy a voy a usar este código no y lo que al final me dio era una librería que estaba
depredada entonces Eso me parece un poco raro la verdad O sea digo no fue el Panda fue el PDF tú
no sé qué hoy o sea una librería de estas que ya no está de precada entonces me eso me hizo
vamos respeto al contexto de la conversación me hizo pensar un poco si qué punto en cuanto sí
por programa mejor pero las librerías que tiene no están actualizadas Y es quizá un modelo
anterior en cuanto en cuanto a eso no
(1:04:12) creo que sea eso porque al final
seguramente como lo han hecho ellos lo que tienes una imagen de una de un sistema operativo y lo
que hacen es que cuando tú inicias la conversación te levanta una imagen de ese sistema
operativo una instancia de esa imagen no entonces seguramente por esto ya son cábalas y no se
convierte en un bar con tres cuñados porque casa y mañana pero si no seguramente lo que pasa es
que ellos están intentando de alguna forma tener ese entorno controlado que les hubiese gustado
tener y Álvaro ya ha dicho que
(1:04:44) no tienen porque todo el mundo lo ha explotado ya
pero al final han limitado la cantidad de paquetes que pueden utilizar porque paquetes que ellos
conocen y su equipo de en este caso ingenieros o de ciberseguridad que seguro que también tienen
Peña han dicho utilizamos estos paquetes Porque estos paquetes no son explotables bueno Álvaro
ya nos ha dicho que ya hay gente que lo ha dicho pero el hecho de que estén utilizando una
librería de precada Yo no creo que sea una cuestión de los datos de entrenamiento que tenga gpt
4 o de
(1:05:13) ese corte de 2021 sino que han seleccionado uno de los válidos disponibles
dentro de la imagen que están utilizando entonces creo que eso es tan fácil como que vayan
pasando las semanas y vayan actualizando esa imagen y vayan metiendo los paquetes que van
liberando que van checando que son seguros para su sistema y cada vez esa imagen esa capacidad
de herramientas que tendremos será mucho más potente y no necesita utilizar Inteligencia
artificial para eso simplemente es una cuestión de ir validando paquetes e ir
(1:05:41)
metiéndolos ahí y dejandolos disponibles no entonces por eso también le veo un potencial enorme
porque esto el escalado es inmenso la Inteligencia artificial ya funciona muy lo que no funciona
ahora Muy bien Es la virtualización que es algo que lleva entre nosotros un montón de tiempo y
que en cuanto al ajusten será será una pasada no entonces aquí creo que lo importante es eso
separar las dos tecnologías y sobre todo ver cómo está funcionando en este caso el modelo
generativo de código que me parece una burrada yo yo única propuesta última que
(1:06:11)
no les costaría mucho es que por defecto cuando tú abras la cuenta te mantenga la conversación
del último del último modelo que elegiste lo de que cada vez tengáis que darle click de 3.5 a 4
o a cada intérprete es como tíos de verdad O sea que naciste famosos por la ux que tenía el
proyecto en cuanto a hacer un chat es mortal que cada vez tengas que hacer tres clics de gpt 4
abro aquí le doy al intérprete adiós eso bolífero o sea pienso contratar a alguien para hacer la
ux Y esa personería que está en el equipo
(1:06:47) y han dejado vacío el puesto también te
lo digo y hay una una cosa que está aquí que creo que es interesante comentar que es han
aterrizado un concepto técnico para un público que quizá lo puede usar sin ser técnico que creo
que está muy bien el hecho de ocultar el código que tú si no abres el desplegable Como pasan los
plugins no tienes ni por qué saber qué hay detrás no es como yo puedo [ __ ] un coche pero no
tengo por qué saber la mecánica cómo funciona y me vale para llegar al punto AB y ya está y está
bien
(1:07:18) no entonces creo que esa parte es es muy correcta pero creo que si realmente
tienes esos conocimientos técnicos aprovechas mucho más O sea la gente que quizás estamos más
acostumbrada a estar programando con gpt o con Ian en general creo que aprovechas mucho más las
acciones que puedes hacer porque sabes que para generar un código de programación te voy a tener
que detallar paso a paso cada una de las acciones no lo que decía arnau de tener un prom de
kilométrico Pues es que cuando ya programas tienes proms porque le dices
(1:07:53) Oye
hazme esta acción divídemela en estos pasos Pon más atención en este análisis específico usa
estas librerías de aquí Haz no sé qué entonces si lo usas como como lo estabas usando O sea si
programas con ello y usas la forma en la que estabas programando para comunicarte con con el
código intérprete creo que los resultados son como como le gusta decir arnau el cambio es
cuántico no O sea se nota muchísimo la diferencia y cosas tan básicas como Oye lee un PDF o no
escribe un código que coja este documento de PDF use 1 CR para tal sabes
(1:08:32) que le
expliques las tripas de cómo se hace ese proceso quizá la diferencia entre que lo haga bien de
que lo haga mal es que le expliques exactamente lo que tiene que hacer y eso se nota se nota
muchísimo y cambia totalmente el resultado totalmente Yo todavía no no lo he probado para los
códigos que genera integrarlos dentro de un código más grande de una aplicación más grande no
tengo Claro que ese caso de uso vaya a funcionar Creo que es más a nivel conversacional para
hacer scripts o algo así pero es algo que a lo que me
(1:09:05) gustaría enfrentarme dentro
de poco esta semana no voy a programar nada porque no vivo vacaciones la semana que viene y
tengo que cerrar muchas cosas pero en cuanto vuelvas y que me quiero poner con eso porque podría
ser otro gran empujón en muchas otras cosas entonces bueno nuestro punto de vista que
comentaremos en el podcast a futuro y hay una cosa que no hemos comentado que no lo he probado
pero que puede ser interesante que es hemos dicho de Oye zipear diferentes documentos de datos
pero realmente ahí podríamos tipear lo que
(1:09:36) nos dé la gana o sea Tú metes en un
vídeo una imagen un paquete que quieras instalar O sea hay un vídeo el saco este que se ha
hablado Antes había hecho un reconocimiento de vídeo que le seguía la cara con el código
intérprete y en tiempo real se lo estaba ejecutando ahí O sea que realmente le puedes meter tal
cantidad de de documentos diferentes que las posibilidades son es que sí Yo es que a mí es que
cuando me está explotando la cabeza con eso porque yo una cosa que quería hacer es que hablamos
fuera de micro con
(1:10:10) Álvaro el tema de [ __ ] con lanchain poder tener tus agentes
no un agente que que sepa algo sobre una documentación claro yo pensaba [ __ ] yo cojo ahora
mismo por ejemplo por ejemplo el tema de bi cuerino me descargo toda toda la documentación la
pasa un zip sabes y luego por otro lado le meto la tabla de datos porque al final a día de hoy
es que no programa bien Por ejemplo Y eso es un caso que yo estoy trabajando para intentar
resolver Claro si tú le pasas en un cit documentación sería tu agente en cuanto
(1:10:41) a
la parte informativa y luego tienes la parte de los datos Me parece que o sea no sé hasta dónde
es capaz de llegar eso Pero sinceramente agilizaría mucho porque cada vez es el esquema de datos
es el esquema de datos no hace ni ponértelo tampoco porque me subo la documentación o todo lo
del ancho y no Víctor que tú estás más en eso te subo todo a pelo toda la documentación los
githubs también a cascoporro sabes y ahora quiero que me programes esto adaptado para este csv
por ejemplo no digo me parece que es si
(1:11:09) funcionase sería tremendo que pudiera
subir zipsa cascoporro con documentación y tú simplemente decirle cuándo ir a qué sitio no pero
es que me parecería que es que es un pseudo agente del Ángel brutal claro el tema es ese que yo
creo que es como muy ahora mismo es muy hilo es muy que es difícil de conectar de extraer de
extrapolar a algo transversal a un día entero No si al final va a tener un hilo de conversación
que es un caso de uso y no un caso en vuestro caso que tenéis muchísimos clientes pues es un
caso de
(1:11:43) uso en concreto de un cliente por tanto si eso lo expones a todo al final
tiene muchos casos de uso de muchos clientes diferentes tienen muchas conversaciones y no se
relacionan entre sí no es como una capacidad de extraerlo de ahí para unificarlo todo en un
mismo sitio y poder visualizar de otra forma pero sin estructura yo pienso que lo interesante es
que tú sepas que tú sepas a nivel de y a nivel de archivos lo que es una estructura por ejemplo
los descargables de seres con sol siempre van a ser los mismos y sabes que en vez
(1:12:11)
de hablarle de algo específico háblalo por referencia de nombre de columna por ejemplo no
entonces Claro si tú eres capaz de referenciarlo a eso y luego le pasas un csv particular de
cada cliente ahí tú ya es cuando te abres tuning en tu Cut intérprete le dices Mira en este caso
particular en la tabla que en la tabla de seconsul punto csv coge esto y ahora machéalo con esto
En vez de digo que quizá el propio como soy súper de acuerdo es un hilo Y quizá en ese hilo Tú
mismo eres capaz de decirle primero led esta documentación y memoriza la dos
(1:12:43) de
intenta ahora con lo que has memorizado generar un csv de esquema de datos 3 con ese esquema de
datos ahora intenta ir al documento datos Row punto csv intenta normalizarlo para poder hacer o
sea no sé yo no lo he probado Pero eso sería un platino si al final lo que estamos hablando es
que si existiese como una especie de almacenamiento en la nube compartido para todas las
ventanas de conversación tú tuvieses como interfaz gráfica rollo Google Drive o cualquiera de
estos sería como muy bestia no en plan Tú metes toda
(1:13:17) la info ahí de tus clientes
de no sé qué Y entonces tú puedes desde cualquier punto puedes modificar esa información puedes
volver a consultarla puedes estar Entonces eso sí que es transversal absolutamente todo No es no
es así como súper compartimentado de lo que es ahora no creo que sea complicado que lleguemos a
ese punto porque al final simplemente es como que levante un poco el pie del freno que quite la
invitaciones y listo Bueno vamos con las flipadas flipadas Bueno creo que el tema del día de hoy
nos nos ha gustado a todos me parece muy
(1:13:50) interesante que siempre decimos el
podcast siendo egoístas pasamos por nosotros pero creo que justamente en estos puntos nosotros
mismos aprendemos muchísimo de nosotros mismos flicada flipada flicadas vamos con ellas Álvaro
que tienes esta semana Vale pues nada ha ido un poco en la línea de clot de ir probando a ver
qué posibilidades tenía y que opciones daba entonces bueno está jugando un poco con ello vale
como os he comentado antes una de las opciones que permite ahora es subir archivos vale archivos
de hasta 10
(1:14:26) megas cada uno o sea puedes subir varios archivos y permite pdfs txt
csv Así que después de esta conversación arno que te he visto que con los pdfs no no acabas de
sacar partido con con clot los PDF van bastante bien vale porque como no sé internamente no sé
cómo funciona evidentemente porque no te sale el desglose de la llamada al código que está
haciendo Entonces aquí sí que lee el contenido de una forma relativamente correcta si el PDF la
información está bien bien puesta funciona bastante bien qué más tampoco internet en este caso
no
(1:15:02) se pueden Subir imágenes a diferencia del codo intérprete Vale que eso es
interesante también y una de las cosas que estuve probando es tema de generación de código con
clock Y la verdad es que los resultados que han dado para mí están bastante bien o sea los casos
de uso que yo tengo que suele ser programar en python temas de seo principalmente o temas de
analítica o cruces de datos Y tal la verdad es que está bastante bien el código que generaba y
código en diferentes lenguajes y sin ningún problema de pasar
(1:15:32) de uno a otro o sea
le pedí un desarrollo que había hecho Yo anteriormente para para no sé Qué generó todo el código
y le dije vale me lo pasas a javascript y lo paso a javascript como si nada vale entonces
bastante bien La parte de generación de código creo que podía estar perfectamente al Si no al
nivel de gpt 4 le faltará poco o sea está bastante bastante bien al principio os comenté el tema
de las matemáticas de que decían que habían invertido en mejorar sus cálculos matemáticos y tal
aquí ya no me parece tan tan potente o
(1:16:06) sea le pasé un problema matemático
bastante básico que eran bueno Eran cuatro sumas con lo típico de esto de secuencia de números
Cuál va a ser la siguiente secuencia vale Y le dije Oye pues uno más cuatro es cinco dos más
cinco es 12 no sé qué Hazme la secuencia y me hizo la suma del último y era como vale para eso
se lo doy a mi hijo de 2 años y me va a dar una solución bastante parecida a la tuya y nada por
lo demás ya os digo creo que es que es un recurso que está muy bien que se ha quedado al camino
del codo
(1:16:41) intérprete porque entiendo que cada uno estaba haciendo su parte y Quizá
es bastante más mainstream este esta resolución de de la problemática y pero en general me ha
gustado mucho aparte de generación de texto está está muy bien la parte eso de generación de
código está muy bien y trabajo con documentos que ya antes lo había usado y había dado
resultados bastante buenos creo que es que es muy recomendable Así que si queréis trastearlo la
verdad es que merece la pena porque ya os Digo el friqueado que ha hecho que ha hecho esta
(1:17:16) semana ha merecido para mí ha merecido la pena y ha sido de esos de Oye no he estado
simplemente revisando cosas sino hay algo que lo pueda aterrizar y puedo y Puedo usarlo en mi
día a día en función del caso de uso la mía me parece literalmente de las mejores que he traído
en en mucho tiempo si quizá porque me toca por trabajo pero pero es que me encanta yo ya la he
publicado la publiqué en redes a principios de semana es un proyecto que ha salido hace poco que
se llama attention inside que básicamente lo que
(1:17:48) lo que te permite es dada una
imagen y ahora abro paréntesis la parte más espectacular dado un frame de figma te permite
analizar Cómo se vería es cómo se vería en un estudio de hay tracking o sea de estudio de
tracking de ojos ojo de ojos ojo de ojos un poco la locura pero es que es muy diferente a los
mapas de calor que es que eso es lo que hasta ahora venimos acostumbrados o sea realmente los
los estudios de movimiento ocular realmente estaban muy muy muy muy muy muy muy muy muy
limitados costaban un bastón y ahora
(1:18:29) había el chico este el de local Ghost que
había hecho un ejemplo con gpt 4 y una versión de Toby que Pero bueno aún así hay que programar
costaba como unos 500 dólares o sea muy difícil pero es que esto es un pepino o sea porque
realmente lo que han hecho es han cogido 70.000 imágenes de o sea Data sets digamos de imágenes
de estudios de itracking entonces lo que hace es básicamente han hecho obviamente entrenamiento
de ese modelo y luego lo han lo disparan contra contra tu imagen digamos no entonces en datos de
datos
(1:19:04) simplemente los que venden Pues básicamente tienen una cura así O sea una
un nivel Sí y un nivel de robusta de resultados del 90 al 96% claro preguntaban por Twitter
[ __ ] siento Cómo creo que quedan 175 créditos 175 euros 165 créditos o un euro un crédito Es
que es que es una locura es que está tirado o sea realmente en cuanto a hacer modelos porque
claro cuando nosotros hacemos análisis Estamos tan acostumbrados a los mapas de calor a los al
ratón moviéndose que no que incluso cuando yo vi los resultados que me
(1:19:43) dieron mis
test de enfigma no sabía interpretar eso yo le decía pero cómo va a mostrar tanta calor en este
título Claro porque es que es un estudio del ojo que es que de verdad es un salto cuántico para
los que trabajamos en tema de diseño y de CR o porque lo que estamos acostumbrados es a lo que
permite el ratón que eso es nada nada nada que ver con la realidad entonces para mí y ahora es
un poco el detalle porque justamente en la web de atención inside hay una parte que es muy
interesante yo sé porque la heurística me lo dice que
(1:20:11) si pongo una imagen con un
tío mirándome y un título grande y un cta debajo Yo sé que la cara se va a ver Sé que el título
se va a ver y sé que el otro se va a ver hasta ahí No hay nada nuevo vale Pero hay un ejemplo
que poner es que me parece muy interesante que es el tema de Un diseño de de comprimidos
farmacéuticos entonces claro obviamente se ve el título grande y eso Es evidente que va a captar
atención pero luego en el diseño hay debajo en la zona lateral derecha una parte que pone relax
Eso sí me parece espectacular porque realmente
(1:20:41) es una pieza de información que
capta información o sea que capta la atención visual un tiempo lo suficiente para transmitir
algo asociado al comprimido Y eso sí me parece brutal Entonces no es tanto que yo diseñe para
saber dónde va el ojo porque en parte ya lo sé no sin ser presuntuoso y sin que realmente quede
por encima el probarlo con los usuarios o sea detectarlo en tiempo real pero lo que me parece
interesante son casos de uso donde tú quieras transmitir una información no Es evidente que vaya
a llegar a verse y realmente esos
(1:21:12) estudios te permitan hacerlo porque lo otro es
que no te vas Aunque la gente decía luego pero no está de más yo mismo lo decía eh que lo
probemos con los usuarios Claro pero si no tienes herramientas que [ __ ] vas a probar sabes
entonces bueno para mí es un pepino absoluto el el la aplicación y me parece que está tirada de
precio o sea ahí la dejáis la dejamos en las notas atención inside dos cosas es lo primero
cuando vi tu publicación se lo pasé a mis compañeros de producto y ya lo están probando con los
más de Uruguay y los resultados
(1:21:46) molan un montón y lo segundo es una pequeña
reflexión sobre sobre esto no al final fíjate el producto lo potente que es y lo chorra que es a
la vez han entrenado un Data set con imágenes de estudios de estudios de itracking y han sacado
un modelo que es capaz en base a una imagen que tú le das generarlo es decir no estamos hablando
de que haya llegado una nueva Revolución que ha conseguido figma no sé qué al contrario Sigma se
ha subido a la ola del hyde de la Inteligencia artificial ha utilizado cosas súper tradicionales
dentro del
(1:22:22) mundo de Inteligencia artificial que llevan años funcionando y gracias
a esta ola han introducido en su modelo una herramienta súper potente que la Podrían haber
introducido hace tres años seguramente pero como no había este hype no le habrán dedicado el
tiempo suficiente para estudiar los recursos para que equipo de desarrollo se Centre en explorar
cosas con Inteligencia artificial y no han llegado a ese punto o sea Creo que este esta este
está avance tecnológico no es innovador lo que pasa es que es es movido por el hype
(1:22:50) y genera un producto que es brutal y que es también otro de estos que puede cambiar
el panorama de la noche a la mañana entonces simplemente eso no Resaltar el hecho en el que que
todas las empresas se sumen a este carro hace que los productos mejoren a tal nivel que al final
los que trabajamos con estos productos seamos capaces de producir mucho más y mejor O sea que
Bueno me parece me parece una brutal una brutada no pasada vale Y con la mía es un es una cosa
un poco rara pero pero que tiene sentido se llama panokio
(1:23:30) No lo he visto por ahí
muy muy distribuido pero este chico es un chico en Twitter que se llama cocktail yo hablé con él
un par de veces en febrero creo cuando se filtró llama el modelo de meta porque este chico fue
una de las primeras personas que empezó a intentar portar Llama a ordenadores personales y había
gente haciendo esto de meterlo en raspberrys y cosas así un poco extrañas y este chico lo que
hizo fue crear un instalador muy sencillo para que tú te instalases en tu local en tu Windows en
tu Linux una versión de llama para que se pudiese
(1:24:14) correr en local con simplemente
un doble clic un exe y se te instalaba no cuando todo el resto Pues eran cosas súper tenía que
entrar a los modelos no sé qué no sé cuánto entonces este chico ha seguido por esa línea de
pensamiento de intentar hacer de productos complejos e instalaciones sencillas entonces lo que
ha sacado ahora que lo sacó esto es de hace dos días que no ha tenido mucha repercusión o sea su
tweet tiene 20.
(1:24:39) 000 reproducciones y el repositorio de github que viene asociado
tenía como 150 estrellas o algo así que eso es nada relativamente ha hecho un producto que es el
panoquio este que os digo que al final es Es como una especie de agregador de modelos de
Inteligencia artificial Open source con instalaciones de clic muy sencillos hace unas semanas
hablaba traía este producto faraday que era precisamente esto pero de modelos de lm de
generadores de textos pues para no que lo que es es un agregador de todo lo que este chico va
añadiendo entonces por
(1:25:16) ejemplo ha hecho que puedas instalarte stable difusión en
local con interfaz web con un simple botón de Descargar instalar y se te Descarga todo a la vez
se te levanta el servidor Y entonces ya puedes empezar a trabajar con este buil difusión
entonces creo que está muy chulo para todas esas personas que que no son no están muy muy
conectadas con el tema de la consola de instalar paquetes de no sé que no cuantos Pues con
cuatro clics puedes empezar a probar cualquier cosa y bueno no es solo esto para no quiero como
que está haciendo
(1:25:46) que sea muy fácil la conexión entre modelos modificarlos y todo
esto pero sobre todo lo que me gustaría destacar es eso no que cualquier persona puede
instalarse por ejemplo eso está igual difusión Pero hay más con un con un simple clic y empezar
a generar imágenes en local de forma muy muy sencilla no así que por ahí quedaría claro listo no
episodio 10 que quede claro que quizá este no que quizá este tío era el Antiguo desarrollador de
ux de Open hay porque el nombre que ha elegido hostiar cuando lo has dicho que
(1:26:20) ha
costado ponerse serios la verdad tú te metes en su Twitter y el chico se ve que no es un chico
habitual o sea es el el su imagen de perfil es perturbadora su fondo de Twitter Son un montón de
cacahuetes es pero bueno pero tiene pinta de Genio de Genio incomprendido las noticias que nos
trae Víctor cada semanita esto que buscaron el Inframundo de Twitter Sí además el chico tiene 4.
(1:26:56) 000 seguidores es como súper ahí bueno a 4000 ya son no pero que no es así la
persona más famosa del mundo por lo que sea bueno pues terminaba esta semana nos acercamos al
récord yo creo que lo superaremos incluso con la despedida Álvaro arnau Muchas gracias una
semana más una semana muy intensa la audiencia no la sabe Pero esta semana hemos hecho extra de
podcast y hemos estado pues preparando cosas muy chulas para lo que viene la siguiente semanas
que os recomendamos que escuchéis dejadnos por favor vuestros comentarios
(1:27:29) en las
plataformas de podcast que escuches habitualmente tanto reseñas como comentarios que nos ayudan
a mejorar y a ganar más audiencia a llegar a más gente y nada más poco más Muchas gracias chicos
por haber venido una semanita más Muchas gracias Víctor un abrazo aquí a todos los
incomprendidos con fondos de cacahuetes y sus amigos que siempre serán Bienvenidos en el test de
turing Muchas gracias Nos vemos la semana que viene hasta luego [Música]
Cómo activar el complemento del intérprete de código de ChatGPT
Para acceder a las funciones Code Interpreter, asegúrate de que eres suscriptor de ChatGPT Plus.
Y tener activo el pago mensual de 20 dólares.
De lo contrario, no tendrás acceso a esta funcionalidad.
Por este precio y lo que puedes conseguir, creemos que merece la pena. Pero aunque seas un usuario de pago, tienes que asegurarte de que lo tienes activado.
Porque viene sin configurar por defecto..
Así que, aquí tienes un vídeo que te muestra cómo configurarlo:
Casos de uso de Code Interpreter SEO
Ahora que ya sabes como activar Code interpreter vayamos a lo interesante.
Como profesional del marketing, este plugin ofrece una amplia gama de aplicaciones prácticas dentro del SEO.
Desde la investigación de palabras clave, el análisis automático de registros y la generación de contenido único con gráficos y diagramas visuales, hasta la identificación de áreas clave de mejora en términos de estructura del sitio, metaetiquetas, palabras clave LSI y velocidad de carga.
Además, puedes obtener sugerencias sobre contenidos para hacerlos más relevantes y optimizados de cara a los motores de búsqueda.
A continuación, vamos a explorar algunas de las posibilidades más prometedoras para desbloquear tu estrategia SEO.
Sigue leyendo:
Identificar palabras clave de alto potencial a partir de sus archivos CSV en cuestión de minutos.
Esta función aprovecha sus capacidades analíticas de SEO, generando información valiosa para alimentar tus estrategias de SEO de contenidos.
Mediante el análisis de varios factores como el volumen de búsqueda, el nivel de competencia, la posición actual y la intención del usuario, los responsables de contenidos digitales pueden tomar decisiones basadas en datos sobre qué palabras clave y contenidos deben priorizar.
Con el fin de mejorar la visibilidad orgánica y conseguir más tráfico relevante a sus páginas web.
Para ello, sólo tienes que introducir tus archivos de Ahrefs, Semrush o Google Search Console y ver lo que obtienes.
Te aseguramos que vas poder priorizar la optimización de contenidos sabiendo que arreglar, donde eliminar URLs intrascendentes o localizar canibalizaciones.
Mapas temáticos y sugerencias de arquitectura del sitio
Con la ayuda de esta aplicación, también podrás analizar con facilidad la estructura de tu sitio web y obtener sugerencias para crear topical maps.
Al introducir los datos de rastreo de tu sitio web extraídos con Screaming Frog en ChatGPT, puedes crear sugerencias perspicaces sobre cómo organizar el contenido y crear una arquitectura web óptima.
Esto te permitirá mejorar la experiencia del usuario, mejorar el posicionamiento en los buscadores y aumentar en última instancia el tráfico orgánico.
Además, puedes pedir a Code Interpreter que visualice estas sugerencias a través de mapas temáticos y obtener una mejor comprensión de la jerarquía de tu sitio web a través de gráficos.
Análisis automático de Logs
Otro aspecto de interés dentro del SEO es la capacidad para realizar un análisis de registros o log automatizados y prácticamente sin esfuerzo.
Al cargar un archivo ZIP (sí, se pueden cargar archivos ZIP), Code Interpreter te permite como SEO introducir datos de registro de tu servidor sin procesar y extraer información valiosa en cuestión de segundos.
Esta función elimina el largo proceso manual de análisis de logs con fines de SEO, lo que permite a los profesionales del marketing identificar patrones, detectar errores, realizar un seguimiento de las métricas de rendimiento del sitio web y optimizar sus estrategias de forma eficaz.
Sugerencias para la creación de enlaces internos
Para maximizar el potencial SEO de tu sitio web, la creación de enlaces internos es crucial.
Afortunadamente, el complemento Code Interpreter de ChatGPT puede proporcionar valiosas sugerencias para mejorar tu estrategia de enlaces internos.
Analizando la estructura y pagerank de tu sitio web, Code Interpreter puede recomendar páginas relevantes para enlazar dentro de tu sitio. Ayudando a los motores de búsqueda a comprender mejor la jerarquía, relación e importancia de las distintas páginas.
Esto no sólo mejora la experiencia del usuario, sino que también facilita la visibilidad de las páginas importantes en las páginas de resultados de los motores de búsqueda.
Con el plugin Code Interpreter de ChatGPT como aliado, tendrás acceso a recomendaciones inteligentes para optimizar tu enlazado interno y conseguir máximo impacto con tu SEO.
Decodificación de los datos de Google Search Console para el rendimiento SEO
Otra función útil para el SEO de este complemento es que te permite extraer información significativa de los datos de búsqueda de Google Search Console, para identificar las palabras clave de mayor o menor rendimiento, descubrir tendencias en el tráfico orgánico y identificar oportunidades de optimización prioritarias:
Al cargar los datos sin procesar de Search Console, ChatGPT puede analizarlos e interpretarlos para obtener información valiosa en muy poco tiempo.
Sin pasar por analizar los resultados en un excel o cruzando varias herramientas.
De esta forma podrás extraer información de forma rápida para mejorar tus estrategias SEO en muy poco tiempo.
Análisis del perfil de construcción de enlaces
La construcción de enlaces es un aspecto crucial de cualquier estrategia SEO y el plugin Code Interpreter de ChatGPT puede ser una valiosa herramienta para ayudarte a analizar el perfil de enlazado de tus competidores.
Así podrás extraer patrones comunes de enlazado externo para construir una estrategia válida de link building y mejorar tu propia autoridad de dominio, pagerank, relevancia y otras métricas importantes.
Forecast SEO
La previsión de SEO es un aspecto crucial cuando se habla con directivos de nivel C o directores de marketing.
También es una tarea que requiere mucho tiempo y que muchos profesionales odian.
Pero con la ayuda del intérprete de código, ya no.
O al menos es posible obtener previsiones a partir de una serie de datos, por lo que puede ayudarte enormemente en esta área.
Así que puedes predecir las tendencias futuras, evaluar el rendimiento de las estrategias potenciales, y tomar decisiones informadas con respecto a las estrategias de SEO.
Alienando está con los objetivos de tu empresa y planificar de forma eficaz tus campañas para asignar recursos y obtener resultados óptimos.
Generación de contenidos únicos con gráficos visuales a partir de datos
Esta función es especialmente valiosa para las estrategias de SEO basadas en contenidos, ya que te permite presentar información respaldada con datos en un formato convincente y fácil de entender.
Que puedes aprovechar para generar contenido único y de valor con facilidad:
Piensa en los gráficos y diagramas visuales que puedes extraer de tus propios datos, por ejemplo:
Siendo estos solo tuyos y de nadie más, podrás desbloquear nuevas posibilidades para la creación de contenidos atractivos que resuenen con tu público en cuestión de segundos.
Mejorando los contenidos existentes y produciendo nuevos.
Casos de uso ChatGPT Code Interpreter para el análisis y visualización de datos
En lo que respecta al análisis de datos, también podemos concluir que el intérprete de código para usuarios de ChatGPT plus es una potente herramienta para culturizar analista digital.
Puede ayudar en tareas como:
- Limpieza de datos
- Análisis de regresión
- Análisis de tendencias
- Previsión de precios
- Implementación de eventos de comercio electrónico
Y muchos ejemplos más.
Descubramos ahora, cómo este plugin está destinado a cambiar el panorama de las aplicaciones de análisis de datos:
Asistencia en la limpieza y el preprocesamiento de datos
Las tareas de limpieza y preprocesamiento de datos se encuentran entre las más tediosas en el campo del análisis de datos y la analítica digital.
Al aprovechar la ejecución de código Python, Code Interpreter puede gestionar eficazmente operaciones complejas de limpieza de datos, lo que te permite agilizar los procesos de análisis de datos.
Esta función facilita la limpieza y preproceso de grandes conjuntos de datos, garantizando resultados fiables y precisos para tus análisis:
Análisis de regresión y correlación
El complemento Code Interpreter de ChatGPT permite a cualquier profesional realizar análisis de regresión y correlación sin esfuerzo.
Como en el siguiente vídeo:
Con esta potente herramienta, puedes analizar fácilmente la relación entre variables, identificar patrones y tomar decisiones basadas en datos.
Introduciendo tus datos podrás ejecutar rápidamente el código Python para calcular coeficientes de regresión y coeficientes de correlación.
Ver si dos variables están relacionadas y de qué forma.
De esta forma comprenderás cómo afectan los distintos factores a tu rendimiento SEO, a tus ventas, permitiéndote adaptar tus estrategias en consecuencia.
Segmentación y análisis de conglomerados
Nadie duda de que la segmentación y el análisis de clusters son técnicas cruciales en marketing digital para identificar distintos grupos de clientes con características similares.
Con el plugin Code Interpreter, podrás emplear algoritmos avanzados de análisis de datos, a golpe de clic, para segmentar tu base de clientes de forma eficaz y en poco tiempo.
Mediante el análisis de diversas variables como la información demográfica, el comportamiento de navegación, el historial de compras o las métricas de compromiso, es posible identificar patrones y agrupar a los clientes en clusters basados en similitudes.
Esta información permite diseñar estrategias de marketing específicas adaptadas a cada segmento, mejorando la eficacia de las campañas y maximizando el retorno de la inversión.
Análisis de tendencias
Una de las principales ventajas de utilizar el complemento Code Interpreter de ChatGPT es su capacidad para realizar análisis de tendencias.
Y es que es posible analizar e identificar fácilmente patrones en los datos que te pueden ayudar a formar tus estrategias de marketing en cuestión de minutos.
Tanto si se trata de analizar las tendencias de tráfico de un sitio web, como de identificar las palabras clave más populares a lo largo del tiempo o de realizar un seguimiento de los cambios en el comportamiento de los consumidores, el complemento Code Interpreter proporciona un análisis exhaustivo de las tendencias que puede mejorar significativamente su proceso de toma de decisiones.
Con acceso a datos en tiempo real, dispondrás de información valiosa para optimizar tus esfuerzos en cualquier canal y mantenerte a la vanguardia en el panorama digital en constante evolución.
Previsión de precios
La previsión de precios es un aspecto crucial en muchos sectores como la moda, las materias primas, el comercio bursátil o las agencias de viajes.
Con el plugin Code Interpreter de ChatGPT, puedes analizar fácilmente datos históricos y predecir tendencias futuras de precios.
Al aprovechar el poder de la inteligencia artificial y el análisis de datos, podrás generar previsiones precisas, lo que le permite optimizar tus estrategias de precios, ventas y compras para obtener la máxima rentabilidad.
Análisis de canales: Información sobre el canal con mayores ingresos
Otro caso de uso interesante para Code Interpreter en la analítica digital es proporcionar información valiosa sobre el canal con mayores ingresos para tu negocio.
O para realizar analisis de atribución.
Esto incluye tareas como:
- Analizar datos de campañas.
- Identificar los canales de mayor rendimiento.
- Comprender los patrones de comportamiento de los clientes.
- Extraer información significativa de conjuntos de datos complejos.
Con esta información a mano, cualquier director de marketing puede tomar decisiones informadas sobre cómo alocar sus inversiones y determinar mejor cuáles son las palancas para obtener el máximo crecimiento de los ingresos.
Creación de mapas de calor
Con sólo unas pocas líneas de código, se pueden generar mapas de calor basados en diversas métricas, como las tasas de clics, las tasas de conversión o incluso los datos geográficos.
Esta función es sólo un ejemplo de cómo el complemento Code Interpreter puede revolucionar el análisis de datos para cualquiera al permitir de forma eficaz organizar la información sin necesidad de ser científico de datos.
Democratizando el uso de los mismos.
Representación gráfica visua
Tanto si deseas analizar el rendimiento SEO, realizar un seguimiento de los datos de tu campaña o presentar información a las partes interesadas, el complemento Code Interpreter te permite crear representaciones visuales completas que comunican de forma eficaz información compleja a su jefe o a los ejecutivos de nivel C.
Para darte algunas ideas aquí tienes un ejemplo de creación de gráficos visuales:
Así que no necesitarás un especialista en datos para potenciar la representación con gráficos visuales para tus necesidades.
Con esta función, podrás generarlos fácilmente para mostrar conclusiones de forma clara e impactante.
Cálculo complejo de costes/ingresos para optimizar la asignación de productos/servicios
El plugin Code Interpreter de ChatGPT ofrece una potente solución para los profesionales del marketing digital que buscan optimizar la asignación de sus productos o servicios mediante la realización de cálculos complejos de costes e ingresos.
Con la capacidad de introducir grandes conjuntos de datos, esta herramienta permite a los usuarios analizar y comparar los costes e ingresos de diferentes canales o productos, proporcionando información valiosa para la toma de decisiones.
Al aprovechar las capacidades de IA de ChatGPT, puede ejecutar sin esfuerzo fragmentos de código que gestionan cálculos intrincados y generan resultados precisos. Esto le permite asignar sus recursos de forma eficaz y maximizar el retorno de la inversión.
Otras funciones del Intérprete de código para ChatGPT Plus
Code Interpreter puede utilizarse para convertir archivos CSV en código y también para generar prompts con diversos fines.
Generación y optimización de prompts
Una de las potentes capacidades del plugin Code Interpreter de ChatGPT es la generación de prompts.
Para los profesionales del marketing digital, esta función puede ser increíblemente útil a la hora de mejorar sus prompts o crearlos desde cero para sus finalidades como la creación de contenidos, la investigación de palabras clave y la redacción de anuncios.
Simplemente interactuando con ChatGPT mediante instrucciones o consultas específicas, puedes aprovechar sus capacidades para generar ideas atractivas y optimizar tus estrategias de marketing.
Con la ayuda de code interpreter, puedes desbloquear un nuevo nivel de creatividad y eficiencia en tus campañas de marketing digital.
De CSV a código
El plugin ChatGPT Code Interpreter ofrece también una potente función:
La capacidad de convertir datos CSV en código ejecutable.
Con esta funcionalidad, puedes transformar fácilmente grandes conjuntos de datos de hojas de cálculo u otras fuentes en código Python que se pueden analizar y manipular.
Esto significa que puedes procesar y analizar rápidamente tus datos utilizando las capacidades de IA de ChatGPT, ahorrando tiempo y esfuerzo en el proceso. Si desea realizar cálculos complejos, generar visualizaciones o extraer información valiosa, la función de conversión de CSV a código del complemento de interpretación de código de ChatGPT le permitirá trabajar de forma eficaz con sus datos para fines de SEO y análisis de marketing.
Limitaciones de Code Interpreter
Aunque el intérprete de código brinda gran poder y flexibilidad, actualmente tiene limitaciones.
- No tiene acceso a Internet: El intérprete de código no tiene acceso a Internet, lo que significa que no puede obtener datos directamente de la web ni interactuar con APIs en línea.
- Tamaño de archivos limitado: El tamaño máximo de archivo que se puede cargar es de 250 MB. Para solucionarlo, puedes comprimir tus datos en un archivo zip para reducir su tamaño. Sin embargo, recuerda que los datos descomprimidos aún deben caber en la memoria disponible.
- Soporte de lenguaje únicamente Python: Actualmente, el intérprete de código solo admite código Python.
- No se permite la instalación de paquetes externos de Python. Sin embargo, el entorno de programación viene preinstalado con más de 330 paquetes, que incluyen, entre otros, numpy para cálculos numéricos, pandas para manipulación y análisis de datos, matplotlib para visualización de datos y OpenCV para tareas de visión por computadora.
- Persistencia del entorno: Si el entorno se detiene, se pierde todo el estado. Los archivos generados también se vuelven inaccesibles, ya que los enlaces de descarga dejan de funcionar.
- Corte de conocimiento: El modelo subyacente, GPT-4, tiene un «corte de conocimiento», es decir, no tiene conocimiento de eventos que ocurrieron después de que se recopilaron los datos de entrenamiento.
En conclusión: Code Interpreter vitamina tus capacidades para el análisis de datos
En definitiva podemos concluir que Code Interpreter de ChatGPT cambia las reglas del juego para los profesionales del mundo digital en relación al análisis de datos.
Con sus potentes capacidades, permite liberar todo el potencial de tus datos a golpe de clic.
Facilitando el acceso a un código eficiente para obtener conclusiones de tus datos, generar potentes visualizaciones y editar archivos para los que antes eran necesarios profundos conocimientos técnicos y habilidades.
Además de varias herramientas.
Ahora mismo, a pesar de sus limitaciones, ChatGPT Plus es lo más parecido a tener acceso directo a tu científico de datos personal.
Y es que tienes a mano lanzar las preguntas que nunca obtienen respuestas para mejorar tus estrategias y tomar decisiones más informadas basadas en análisis exhaustivos.
El futuro de la IA y la ciencia de datos en la industria del marketing digital parece más prometedor, con herramientas como el complemento Code Interpreter que nivelan el campo de juego para todos.
Enlaces y Recursos
- https://www.analyticsvidhya.com/blog/2023/07/chatgpts-code-interpreter-all-you-need-to-know/
- https://www.pcguide.com/apps/chatgpt-code-interpreter-what-is-this-plugin/
- https://www.nytimes.com/2023/07/11/technology/what-to-know-chatgpt-code-interpreter.html
- https://medium.com/mlearning-ai/chatgpt-plugins-code-interpreter-visualizer-and-more-be8667a56767
- https://www.analyticsinsight.net/chatgpt-plus-users-to-get-access-to-code-interpreters/
- https://mpost.io/what-is-code-interpreter/
- https://roedigital.com/chat-gpt-plugins/
Prompts para Code Interpreter
Noticias
Mejor agencia SEO Tenerife 2026 para potenciar tu posicionamiento en Canarias
Noticias
Las mejores plataformas para adquirir backlinks SEO en 2026
Noticias
Cómo posicionar en Google AI overviews en 2026 – Una guía rápida
Inteligencia artificial
Los mejores generadores de video con IA para marketing digital y SEO en 2026
Noticias
Nuestra teoría del SEO un mundo con IA (actualizada mayo 2025)
Noticias