00:00:15
en esta ocasión doy paso ahora a la
00:00:17
exposición del doctor Patricio López
00:00:20
pism psicólogo y doctor en psicología de
00:00:24
la Universidad de chile eh académico de
00:00:27
la Universidad Autónoma de chile eh
00:00:30
fundador de la sociedad latinoamericana
00:00:32
De filosofía de la psicología solfit eh
00:00:36
una organización que promueve el estudio
00:00:37
y desarrollo de la eh filosofía en la
00:00:41
psicología que se ve pantalla
00:00:44
completa a perfecto Hola hola buenos
00:00:50
buenos días Eh a todos imagino que hay
00:00:53
varios estudiantes dando ahí
00:00:55
vuelta mi presentación eh hoy es una
00:00:59
continuación de
00:01:00
varias investigaciones lecturas pruebas
00:01:04
que he estado haciendo con eh por una
00:01:06
epistemología y por otro lado eh
00:01:09
llm Y creo que llegué a algo que puede
00:01:11
ser interesante tengo esa impresión y me
00:01:14
gustaría mostrarlo acá primera vez que
00:01:16
lo muestro así tan públicamente eh Me
00:01:18
parece que puede ser Útil para varios
00:01:20
para varias áreas no solo psicología
00:01:23
también lo que es historia de la ciencia
00:01:25
y filosofía de la ciencia entonces la
00:01:29
presentación se llama modelo de lenguaje
00:01:31
grande el lm que luego lo voy a explicar
00:01:33
y epistemología evaluando y generando
00:01:35
conocimiento en psicología
00:01:38
Eh fundamentalmente Esto va a ser muy
00:01:40
por encima de hecho el gran desafío de
00:01:43
esta presentación para mí fue resumir
00:01:45
porque era Demasiada información la que
00:01:47
tenía te tocaba resumir y pensando
00:01:49
también que un público no es tan
00:01:50
especialista entonces pensé en decir lo
00:01:53
básico que esta medida va solaparse con
00:01:54
lo que también dijeron expositores
00:01:56
previos como sobre todo Carolina y
00:01:58
Arturo siendo yo no experto obviamente
00:02:01
de sobre log Inteligencia artificial eh
00:02:04
pero sí me parece Bueno ese contexto
00:02:05
luego eh algo de pist temología que
00:02:08
tampoco vamos a profundizar Más allá de
00:02:10
lo que se ve un poquito en pregrado y
00:02:12
estamos no es mucho más pero igual es
00:02:14
como un poco refrescar los conocimientos
00:02:16
y por último que es la parte como
00:02:18
novedosa propiamente tal es la
00:02:20
aplicación del lm particular muy
00:02:24
particular a eh la epistemología y como
00:02:26
eso va a dar resultados super concretos
00:02:27
y que para mí me parecen bien
00:02:29
interesantes por lo menos para iniciar
00:02:31
la la investigación ya porque al final
00:02:34
voy a dar alguna como voy a mostrar
00:02:38
algunas limitaciones que tiene Este
00:02:39
modelo o esta este procedimiento que a
00:02:42
su vez coincide un poco con lo que
00:02:44
también
00:02:45
conversaban tanto Carolina como Arturo
00:02:49
entonces ya yo lo no me voy a concentrar
00:02:53
Inteligencia artificial en general sino
00:02:55
en particular en los llm que son los
00:02:57
modelos grandes de lenguaje los modelos
00:02:59
Grand Grand de lenguaje definición más
00:03:01
reciente se pueden definir como como su
00:03:04
nombre sugiere modelos muy grandes que
00:03:06
tienen muchos parámetros que que han
00:03:09
sido entrenados con muchos datos que en
00:03:11
consecuencia son muy pesados tanto para
00:03:13
ejecutar en un computador de uno como
00:03:17
Incluso en servidores entonces en
00:03:18
general los grandes grandes melos de
00:03:20
lenguaje requieren muchos computadores y
00:03:22
en general uno los bsar usando algún
00:03:25
servicio web como chpt como Cloud como
00:03:29
gemini como minal etcétera
00:03:32
eh aparte de esta esta entrenamiento
00:03:35
gigante de dat estamos hablando de
00:03:37
millones y millones de datos millones y
00:03:39
millones de libros la Wikipedia completa
00:03:41
en inglés eh es escapo de el caso de los
00:03:44
modelos que son bueno de texto internet
00:03:47
libro dominio público millones de libros
00:03:51
Y a partir de eso generan
00:03:53
o producen o visualizan un montón de
00:03:57
patrones ya que eso es la parte un poco
00:03:59
mágica que tiene esto de que esos
00:04:00
patrones para nosotros no son tan
00:04:01
intuitivos de hecho es difícil entender
00:04:04
cómo funciona por debajo y yo creo que
00:04:06
Arturo sabe Mucho mejor el el el el lo
00:04:08
que hay detrás la caja negra como se
00:04:10
llama de los modelos pero objetivamente
00:04:13
efectivamente Y nosotros todos somos
00:04:15
testigos generan resultados muy buenos
00:04:17
en muchas áreas no llegando a la
00:04:19
inteligencia eh general que proponía
00:04:22
Carolina obviamente est ya estamos lejos
00:04:24
de eso pero sí a lo largo del tiempo los
00:04:26
último año se ha logrado demostrar que
00:04:29
que están cada vez acercándose más a
00:04:32
ejecuciones humanas en muchos ámbitos ya
00:04:35
por ejemplo traducción en múltiple
00:04:38
idioma resumen
00:04:40
obviamente la parte conversacional se
00:04:42
demostró también algunas investigaciones
00:04:44
que tienen ya algo así como teoría de la
00:04:46
mente son capaces de dar respuestas que
00:04:49
son similares lo que uno haría cuando
00:04:51
empatiza otra persona lo cual es
00:04:53
increíble parte de las habilidades
00:04:55
emergentes que se han han probado y
00:04:58
Bueno aparte de todo eso eh tiene una
00:05:01
serie de características como sobre todo
00:05:04
y por eso definen como modelo de
00:05:06
lenguaje pueden expresarse o pueden
00:05:08
usarse de manera con el lenguaje natural
00:05:11
lenguaje que nosotros hablamos día a día
00:05:12
no es necesario saber programar para
00:05:14
usar lo cual Abre que mucha otra gente
00:05:16
pueda ocuparlo incluido cada uno de
00:05:19
nosotros que probe hemos usado por
00:05:21
último meta que está en el WhatsApp si
00:05:22
no hemos usado eh e gpt o otras Géminis
00:05:26
que son bastante má Us
00:05:30
además Bueno aquí esto ya se habló solo
00:05:32
un repaso más
00:05:33
general hay varios desafíos de este uso
00:05:35
sobre todo ahora que se ha masificado un
00:05:37
problema fundamental que habló Carolina
00:05:40
el alto costo computacional que está
00:05:42
asociado al exceso de energía que están
00:05:45
operando De hecho hay varias noticias
00:05:47
sobre que se están pensando en reabrir
00:05:50
centrales nucleares en Estados Unidos
00:05:52
para solo alimentar el entrenamientos de
00:05:54
los llm porque la cantidad de dinero que
00:05:57
está moviendo es muchísima con respecto
00:05:58
a esta industria
00:06:00
eh Hay un problema que es el tema de
00:06:02
sesgo que también lo conversó eh
00:06:05
Carolina y la efecto que tiene esos
00:06:06
sesgos porque uno que con los seos y
00:06:08
dice ya pero no es tan importante uno
00:06:09
puede filtrar pero eso tiene muchas
00:06:11
consecuencias incluso a nivel político
00:06:13
de como un a partir de determinado
00:06:15
búsqueda o determinado resultado tiende
00:06:17
a reproducir los sesgos de entrada que
00:06:19
ya el modelo cuando fue entrenado generó
00:06:22
que además tiene que ver con los datos
00:06:23
con los cual fue entrenado ya piensen
00:06:26
por ejemplo que se entrenara algún
00:06:27
modelo de hecho se cierta broma que se
00:06:30
entrena estos modelos con canales como
00:06:32
Twitter o redit en particular que la
00:06:35
cantidad de información que hay es super
00:06:37
tóxica en todos sentido probablemente
00:06:39
los modelos dirían cosas muy
00:06:41
e políticamente incorrectas en cualquier
00:06:44
ámbito ya precisamente porque el dataset
00:06:47
el dato con el cual se entrenó ya tiene
00:06:49
esoso y ahí toca filtrar y todo un
00:06:51
proceso que se con el modelo para lograr
00:06:54
que esos segos se reduzcan como también
00:06:56
dijo Carolina que se ha trabajado harto
00:06:58
sobre todo Google bastante eh
00:07:01
quisquilloso con ese
00:07:03
tema ya pasando ya a Qué es litología
00:07:08
eh voy a concentrarme en un problema
00:07:11
clásico de la epistemología yo creo que
00:07:13
sobre todo el siglo XX filosofía de la
00:07:15
ciencia que el problema de la marcación
00:07:17
que es poder distinguir lo que es
00:07:18
ciencia y lo que es
00:07:19
pseudociencia eso no es tan sencillo
00:07:21
como uno vería a priori porque pues de
00:07:24
hecho Existen varios criterios el
00:07:25
criterio más clásico el de falsación que
00:07:27
probablemente la mayor parte quiene
00:07:29
estudiamos en la universidad sabemos
00:07:31
falsación que una teoría que tiene
00:07:34
cierta enunciado que uno posiblemente
00:07:36
puede generar algún experimento que
00:07:38
permita rechazarlo eso es un criterio
00:07:41
clásico de poer eh pero luego ese
00:07:43
criterio ha sido discutido a lo largo de
00:07:45
todo el ciclo x heo por hoy como
00:07:47
criterio principal o único está
00:07:49
desechado hace mucho rato pero todavía
00:07:51
se utiliza en la conversación cotidiana
00:07:53
pensando que lo que es ciencia porque
00:07:55
tiene falsación y lo que no es ciencia
00:07:56
porque no tiene falsación y eso no
00:07:57
funciona así deun con la el tema de la
00:08:01
revolución científica como efectivamente
00:08:02
funciona la ciencia no es así O sea la
00:08:04
ciencia muchas veces tiene un núcleo
00:08:07
eh o tiene aspectos que no pueden ser
00:08:09
falseados por definición del mismo
00:08:11
paradigma eh Y luego otro tema que es
00:08:14
más importante todavía las consecuencias
00:08:16
eh científicas que tendría pensar que el
00:08:18
criterio de falsación es lo principal
00:08:20
que sería fundamentalmente dejar toda la
00:08:21
ciencia afuera o sea quedarnos con nada
00:08:23
en realidad llegar un escepticismo
00:08:25
radical entonces hay una propuesta que
00:08:28
es la que yo defiendo muchos años yo ya
00:08:30
he publicado entre comillas un artículo
00:08:33
al respecto que es la cita de allá que
00:08:35
es pensar una forma nueva de
00:08:38
evaluarlo las teorías entre comillas
00:08:40
también teoría no realmente no es teoría
00:08:42
lo que se estaba hablando evaluar estas
00:08:44
teorías entre comillas para decir es
00:08:47
científico no es científico a partir de
00:08:49
una serie de criterios que lo voy a ver
00:08:50
en un ratito eso es latos ya nos vamos a
00:08:54
quedar con lato porque es el que voy a
00:08:55
trabajar en la parte final de la
00:08:57
presentación entonces Entonces qué
00:08:59
plantea el lato así en resumen en
00:09:02
resumen lato plantea que la ciencia no
00:09:05
funciona por teoría sino funciona por
00:09:06
paradigmas paradigma programa de
00:09:08
investigación paraat son sinónimos eh
00:09:11
estos programa de investigación tiene
00:09:12
una estructura que se puede visualizar
00:09:14
de esa manera que tienen un un un grupo
00:09:17
de ideas creencias enunciado que son
00:09:20
irrefutables por definición del
00:09:22
paradigma o sea uno mientras está el
00:09:24
paradigma independiente de los datos eso
00:09:26
no puede ser movido si es movido el
00:09:28
paradigma dejaría de ser y pasaría a
00:09:30
serer otra cosa entonces un núcleo
00:09:32
básico que permite que una comunidad
00:09:33
exista una comunidad investigadora
00:09:35
alrededor de de esa serie de ideas con
00:09:37
respecto a determinado campo de la
00:09:39
realidad puede ser en psicología
00:09:41
sociología economía física biología
00:09:43
etcétera de hecho los ejemplo clásicos
00:09:45
son de física no son de
00:09:47
psicología ejemplo clásico que usa la c
00:09:51
luego alrededor de ese núcleo firme hay
00:09:52
una serie de
00:09:54
eh ideas que que en este caso se llaman
00:09:57
hipótesis eh hipótesis que permiten
00:10:00
proteger este núcleo firme o sea
00:10:01
posibilitar que si pasa algo raro ese
00:10:05
Ese cinturón de teoría alrededor
00:10:07
explicaría lo que está pasando O sea
00:10:08
explica los fenómenos anómalos se podí
00:10:10
decir y al mismo tiempo es capaz de
00:10:13
predecir hechos nuevos a partir de la
00:10:15
articulación ent el núcleo firme y la
00:10:17
hipótesis que ahí s eso se puede llamar
00:10:19
teoría que es una parte del paradigma Y
00:10:21
esa ese grupo de teorías Debería ser
00:10:23
capaz en los programas de investigación
00:10:25
científico o lo que es ciencia ser capaz
00:10:28
de por un lado predecir hechos nuevos y
00:10:31
verificarlos o sea son dos aspectos que
00:10:33
tiene que estar cuando lo logra es un
00:10:35
programa de investigación progresivo o
00:10:36
científico cuando no lo logra estaría
00:10:39
estancado estaría no sería
00:10:40
necesariamente pseudociencia Pero
00:10:42
estaría estancado y cuando ya la
00:10:44
elaboración sucesiva termina yendo hacia
00:10:46
atrás Es decir uno va como a a espalda
00:10:49
de los hechos va generando nuevas
00:10:51
teorías a partir de los hechos per esas
00:10:52
teorías no generan nuevas predicciones
00:10:55
está en un programa degenerativo y poro
00:10:57
sería pseudociencia lo cual es malo
00:11:00
seuden es
00:11:01
malo ya Ahí está lo que le acabo de
00:11:04
contar capacidad cuenta de fenómenos
00:11:07
conocido la función explicativa de los
00:11:10
programas de investigación científico
00:11:12
coherencia interna del programa la
00:11:14
función predictiva capacidad de
00:11:15
anticipar nuevos fenómenos
00:11:16
verificabilidad empírica de las
00:11:18
predicciones y la progesa del programa
00:11:21
generar nuevos hechos confirmar
00:11:23
empíricamente est hecho y capacidad de
00:11:25
resolver anomalía Ya ent esto es repaso
00:11:28
de epistemología
00:11:29
de lo que vemos en pregrado en
00:11:31
psicología
00:11:33
Entonces cuál es la gracia de est este
00:11:36
caso de uso acá La idea es que
00:11:39
nosotros usando los l llms los modelos
00:11:43
grandes de lenguaje los que existen
00:11:45
estoy
00:11:46
usando modelo lenguaje que experimental
00:11:52
en los comerciales Us sol los
00:11:54
comerciales generar una instrucción más
00:11:57
o menos compleja podríamos mostar la
00:11:59
instrucción completa pero es un poco
00:12:01
larga Aquí está una parte que lo que
00:12:04
busca lo que busca la instrucción es
00:12:06
darle al modelo de instrucciones super
00:12:08
específicas de qué buscar en su
00:12:10
entrenamiento en su que no el concepto
00:12:13
de entrenamiento en su
00:12:17
eh en sus patrones en sus patrones ya
00:12:20
establecidos que buscar ahí dentro para
00:12:24
por ejemplo generar un programa de
00:12:26
investigación o sea partimos de una
00:12:27
teoría que puede ser cualquier cosas en
00:12:29
realidad y luego lo construimos de tal
00:12:31
manera que cumpla con Los criterios
00:12:32
estructurales de un progr de
00:12:33
investigación según lacato que tenga un
00:12:35
núcleo firme que tenga un cinturón
00:12:38
protector Y además que tenga eh guías
00:12:41
para hacer nueva hipótesis o para
00:12:43
proteger nueva hipótesis para lo que se
00:12:45
puede hacer y lo que no se puede hacer
00:12:46
en el
00:12:47
programa para eso el proceso fue
00:12:50
resumido eh establecer Los criterios que
00:12:52
vamos a considerar eh plantearle una
00:12:56
forma una forma de respuesta al modelo
00:12:58
que sea como más urada para que sea más
00:13:00
fácil también que nosotros lo podamos
00:13:01
verificar eh evalué varios modelos en
00:13:04
particular el que yo estoy usando para
00:13:06
este ejemplo el Cloud 35 son New que es
00:13:09
el último modelo que salió hace un par
00:13:11
de semanas y que para mí el mejor hoy
00:13:13
por hoy de los que están disponible al
00:13:15
mercado para este tipo de tarea el mejor
00:13:17
y hay un proceso interativo que es
00:13:19
cuando uno va haciendo este este proceso
00:13:21
de construcción de la instrucción como
00:13:23
les digo menos larga eh Hay que
00:13:25
refinarlo hay que ver que funciona que
00:13:27
no funciona y eso obviamente Lu habría
00:13:29
que validar lo que es la parte humana
00:13:30
del proceso que en el fondo un experto
00:13:32
Debería ser capaz de decir sí Esto es lo
00:13:34
que dice esta teoría o esta paradigma Y
00:13:38
esto es más menos lo que se sabe al
00:13:39
respecto ya entonces ahí está un ejemplo
00:13:42
del del rol y de la incripción de la
00:13:45
tarea para el caso de la construcción
00:13:46
del programa y la evaluación que esto es
00:13:50
la parte como interesante ya Porque esta
00:13:52
parte en
00:13:54
principio esta parte en principio nos
00:13:57
sirve para hacer historia de la ciencia
00:13:58
para hacer un poquito de filosofía esto
00:14:00
también ya Y esto no también nos podría
00:14:03
ligar directamente con que de lo que
00:14:05
nosotros conocemos en psicología de lo
00:14:07
que ya se ha publicado en psicología
00:14:09
podría ser establecido como algo que es
00:14:11
prometedor y que por lo tanto habría que
00:14:12
seguir investigando al respecto o
00:14:14
generar más docencia al respecto
00:14:16
fundamentar nuestro program en eso o
00:14:18
financiarlo o no financiarlo que también
00:14:20
es una discusión que se puede hacer y
00:14:21
que realmente no hay Cómo ya o sea uno
00:14:24
hace la hace la eh la evaluación del
00:14:27
programa y se da cuenta que no hay mucho
00:14:29
y y tocaría efectivamente trabajar harto
00:14:31
para poder posibilitar que sea
00:14:34
científico Entonces vamos a empezar con
00:14:37
varios ejemplos para que porque esto
00:14:40
Esta parte la que me me encantó de de
00:14:43
esta experiencia es que cuando
00:14:44
efectivamente lo usé Yo sin tanta
00:14:46
Esperanza funcionó Ya esto es un resumen
00:14:49
Obviamente
00:14:51
el Cloud entrega un respuesta mucho más
00:14:54
elaborada que est mucho más esto es un
00:14:56
resumen Entonces lo primero que le
00:14:58
planteé programa soci biológico de
00:15:00
Wilson que es un programa que nace el 73
00:15:02
que es muy usado no es directamente
00:15:05
psicología per influye en la psicología
00:15:06
porque al final supone que muchos de los
00:15:08
comportamientos psicológicos tiene una
00:15:09
razón biológica entonces lo que hace
00:15:12
esto lo hizo tal cual cl me entrega el
00:15:15
núcleo firme basa evolutiva del
00:15:18
comportamiento animal continuidad
00:15:20
evolutiva animal human son los
00:15:21
principios irrenunciables que no pueden
00:15:23
ser refutados un cintur protector que en
00:15:26
este caso es una hipótesis pl adaptativa
00:15:28
selección nivel evolución Gen cultura
00:15:31
obviamente está resumido esto habría que
00:15:32
explicarlo cada caso Esta es la parte de
00:15:35
construcción del programa Y esta es la
00:15:36
parte en que se evalúa si el programa es
00:15:38
científico o no ahí aparecen
00:15:40
predicciones que la relaciona con lo que
00:15:42
efectivamente la historia aparece como
00:15:44
predicción o sea algo que se dijo que
00:15:46
iba a pasar luego efectivamente ocurra
00:15:47
sale el tema de los genes y sale
00:15:50
convergencia entre distintos sistemas y
00:15:52
pridad que es como una especie de
00:15:54
resumen de los aspectos
00:15:56
adecuad el resultado del programa es que
00:15:59
sea que es científico profe que todo no
00:16:01
va a salir que es científico
00:16:04
no segundo ejemplo psicoanálisis de frey
00:16:07
y acá empezamos la
00:16:09
polémica tanto para poper como para
00:16:13
latos un ejemplo de pseudociencia era el
00:16:16
psicoanálisis ya yo siempre la hipótesis
00:16:19
que ellos no saben de psicoanálisis ya
00:16:20
pero independiente de eso es lo que
00:16:22
siempre se ha planteado y está escrito
00:16:24
en varios
00:16:25
textos lo explicité tal cual
00:16:30
fre y me aparece un núcleo firme que eso
00:16:32
estamos Claro que existe un cinturo
00:16:34
protector y hay una evaluación de la
00:16:36
cientificidad
00:16:38
que cl plantea que es parcial no dice
00:16:41
que está completamente progresivo pero
00:16:43
dice que tiene cosas mixtas tiene parte
00:16:45
degener y parte
00:16:47
progresiva lo
00:16:49
cual contradice lo que plantea po y lo
00:16:53
que plantea
00:16:55
también igual sorprendente también
00:16:58
porque uno ía que estos programas están
00:17:00
entrenados con esos libros con los
00:17:03
libros donde lakato dice que el
00:17:04
psicoanálisis no es ciencia y donde poer
00:17:06
dice que el psicoanálisis en esencia y
00:17:08
sin embargo los patrones que establece
00:17:10
el mismo programa es capaz de
00:17:13
desmentir ya parcialmente por lo
00:17:17
men llegué a un tercer es que me lo
00:17:19
planteó cl yo no tenía idea que existía
00:17:21
esto que es el neuropsico análisis lo
00:17:23
mismo un núcleo firme un sint protector
00:17:25
que existe y luego empieza a evaluar la
00:17:27
cientificidad del programa
00:17:29
y me da cosa que también yo no sabía
00:17:31
activación am represión reconstrucción
00:17:33
de memori traumáticas luego revisé estos
00:17:36
existen y este un programa científico
00:17:39
que se llama neuropsico
00:17:42
análisis hay un cuarto que es más o
00:17:44
menos conocido constelaciones familiares
00:17:47
que es una terapia que algunos usan en
00:17:50
psicología obviamente lo plantea nivel
00:17:52
más
00:17:53
teórico los conceptos fundamentales el
00:17:56
cinturón posible que son posibilidades
00:17:59
de desarrollo algunas predicciones que
00:18:02
no hay y la progresiva que claramente
00:18:04
dice que no hay acá es seudociencia
00:18:08
lo
00:18:10
dice Esos son los ejemplos que
00:18:13
est es son los ejemplos Ya ahora frente
00:18:16
a estos ejemplo
00:18:18
hay varias cosas que decir porque cl
00:18:21
profe entonces podemos decir que el
00:18:22
psicoanálisis de ciencia no no El
00:18:25
ejemplo acá un ejemplo de uso a partir
00:18:28
de una serie de limitaciones que tienen
00:18:30
los modelos actuales que es lo que voy a
00:18:31
decir en la siguiente diapositiva pero
00:18:34
por lo menos permite Mostrar que se
00:18:35
puede O sea que esto habría que
00:18:37
mejorarlo muchísimo hay varias cosas que
00:18:39
habría que proyectar para lograr que
00:18:40
funcione así bien bien para que digamos
00:18:42
Sí sí está demostrado Eh pero en
00:18:45
principio hace las distinciones y hace
00:18:47
distinciones que a nosotros
00:18:48
intuitivamente nos parecen Yo también
00:18:49
aquí no lo quise Mostrar por tiempo pero
00:18:52
probé Darwin teorí selección natural de
00:18:55
Darwin probé teoría de relatividad de
00:18:57
insin y me aparece sea progresivo
00:18:59
altamente progresivo de que son
00:19:01
científicos que es lo que nosotros
00:19:03
sospechamos
00:19:05
Entonces también provee otra
00:19:07
pseudociencia provee astrología eh Ya no
00:19:11
me acuerdo montón de cosas eh homeopatía
00:19:14
Y me salían claramente en su docencia
00:19:17
entonces Cuáles son los problemas y las
00:19:19
prohibiciones al respecto ya y con esto
00:19:21
igual cerramos no sé tiempo como estoy
00:19:23
Pero me imagino que estamos
00:19:25
bien Luego la limitación actual del
00:19:28
modelo que Alo que ya se hablado las
00:19:29
alucinaciones o sea es posible que
00:19:31
dentro de esta evaluación que hace el
00:19:32
Melo internamente tenga datos que no son
00:19:34
ciertos ya sea prediciones que nunca se
00:19:36
hicieron ya sea verificaciones que nunca
00:19:38
se han hecho puede pasar entonces ahí
00:19:40
toca que el ser humano verifique si
00:19:42
efectivamente eso está en el paper que
00:19:43
dice que sale Y eso efectivamente ocurre
00:19:46
en el momento que ocurre y puede
00:19:48
combinar ambos datos Y con lo tanto si
00:19:49
combina ambos datos Porque el datac no
00:19:51
funciona porque está alucinando
00:19:52
efectivamente los resultados no son
00:19:55
correctos hay un tema que acceso a la
00:19:57
literatura eh la mayor parte de la
00:19:59
literatura histórica sobre lo que
00:20:01
efectivamente ha pasado en ciencia no
00:20:02
está digitalizado eso está en revista ya
00:20:04
hay muchas cosas de hecho no se han
00:20:06
investigado porque la investigación en
00:20:07
ciencia en términos histórico es
00:20:09
escasísima algo que usualmente no se
00:20:11
hace y obviamente hay base de datos que
00:20:14
no tiene acceso el modelo Cloud no está
00:20:15
enganchado a las bases de datos de W de
00:20:17
scopus de cielo de nada entonces lo
00:20:19
quien consigue lo que fue entrenado si
00:20:21
esto pudiera asociarse directamente los
00:20:23
resultados serían mucho más fibl y rés
00:20:26
del datac seg con el entrenamiento como
00:20:28
Carolina de por ejemplo que alguien dijo
00:20:30
que Freud no era ciencia y eso se quedó
00:20:31
pegado como parte de un patrón
00:20:33
información desactualizada que tiene que
00:20:35
ver con que los modelos Se entrena hasta
00:20:37
determinado momento del de la vida julio
00:20:40
del 2024 enero del 2023 y hast ese
00:20:43
momento hay un entrenamiento duro y
00:20:47
inconsistencia en datos que es lo mismo
00:20:48
que entre los datos hayan cosas que
00:20:49
están contradiciéndose Que obviamente
00:20:51
eso va a pasar y obviamente el modelo
00:20:52
Tiene que ser capaz de interpretar Qué
00:20:54
es correcto Y qué no ya y ahí toca
00:20:56
también como el modelo hace esa
00:20:57
interpretación
00:20:59
por lo mismo las proyecciones son lo que
00:21:00
va a pasar en este año el próximo que va
00:21:03
va a ocurrir el gpt 5 o como sea que se
00:21:05
llame que todo el mundo está sospechando
00:21:06
que va a ser muchísimo mejor a todo lo
00:21:08
que deos hoy por
00:21:10
hoy también se está trabajando mucho el
00:21:12
tema de alucinación y entiendo que hay
00:21:14
modelos experimentales que efectivamente
00:21:16
ya no alucinan pero algo que está ahí
00:21:18
como trabajando Eh hay la posibilidad de
00:21:21
que se puedan conectar a base de datos
00:21:22
actualizada que eso algo que existe
00:21:24
actualmente algunos modelos también que
00:21:26
permiten conectarse algunas bases de
00:21:27
datos no es el caso de Cloud pero eh No
00:21:30
sé si está tan actualizado eso está un
00:21:32
poquito también en gris no se sabe bien
00:21:34
que está conectado que no eh cómo
00:21:36
funciona por detrás muchos Estos son
00:21:38
empresas privadas que no publican có
00:21:40
funciona entonces uno toca como
00:21:42
interpretar qué pasa Ahí la
00:21:44
digitalización de archivo histórico
00:21:46
sería super relevante para que los
00:21:47
modelos puedan entrenarse con eso mayor
00:21:49
cobertura temporal Ojalá el día de hoy o
00:21:51
que está actualizado lo largo de toda la
00:21:53
historia de los documentos eh de ciencia
00:21:56
por lo menos mejor en ser que hay que
00:21:59
toca el tema de nosotros como expertos
00:22:00
en cada uno de los campos que podamos
00:22:02
curar y y curar significa
00:22:04
fundamentalmente es el filtrar tenemos
00:22:06
este dataset por ejemplo abras completas
00:22:08
de Freud yo creo que eso nadie lo ha
00:22:10
hecho y alimentar el programa con la
00:22:12
obas completa de Freud de tal manera de
00:22:14
estar muy seguro claramente seguro dónde
00:22:16
dijo frey esto y a qué se refería Y eso
00:22:20
obviamente va a mejorar también y va a
00:22:21
ser mucho más resultad eh que esto
00:22:25
también te actualizado como decía y un
00:22:26
entrenamiento específico para este tipo
00:22:28
de tareas que algo que probablemente
00:22:29
también se puede hacer yo no soy experto
00:22:31
en esto pero yo creo que se puede hacer
00:22:32
y probablemente haría que los también
00:22:34
sean mucho más fiable así que eso sería
00:22:37
eh Muchas gracias por la atención
00:22:39
esperamos las preguntas en el en el chat