Fuente: http://www.forbes.com/2010/12/21/speechome-interactive-visualization-language-acquisition.html
En él se sostiene que el análisis y
razonamiento probabilístico es un subcampo del aprendizaje automático aplicado
al procesamiento del lenguaje natural (PNL). Y, en su contexto, un campo
de Probabilidad, la estadística bayesiana, puede ofrecer técnicas únicas para
el PNL.
Como en el resto de la tradición bayesiana, pero ahora apoyada por el análisis de grandes conjuntos de datos, la asignación de probabilidad a un suceso se basa en la probabilidad de su inverso (probabilidad a priori), a través del resultado en experimentos conocidos (probabilidad inversa, probabilidad compuesta y teorema de Bayes). En contraposición a la otra gran escuela clásica, la asignación a través de la frecuencia (probabilidad determinista o frecuentista) (Drury, agosto 2019):
Cohen
states that the goal of Bayesian Point Estimation as: ''summarising the
posterior over the parameters into a fixed set of parameters'', and he links
this goal to a frequentist approach known as maximum likelihood estimation.
Cohen states that Bayesian maximum a posterior estimation(MAP) is a suitable
technique. The remainder of the section describes the mathematical principles
of MAP as well its ability to adhere to the Minimum Message Length principle
which is an encapsulation of Occam's Razor. The section also includes
sub-sections on smoothing (default probabilities for words that are absent from
the sample data) and regularization as well as the computation of MAP with
latent variables.
En otro trabajo Barrow (2019 Apr), glosando el libro de Cohen dice:
El
procesamiento del lenguaje natural (PNL) experimentó una profunda
transformación a mediados de la década de 1980 cuando cambió para hacer un uso
intensivo de corpora y de técnicas basadas en datos orientadas al análisis del lenguaje. Desde
entonces, el uso de técnicas estadísticas en PNL ha evolucionado de varias
formas. Un ejemplo de evolución tuvo lugar a finales de la década de 1990
o principios de la de 2000, cuando se introdujeron las herramientas bayesianas,
en toda regla, en el PNL. Este enfoque bayesiano del PNL ha llegado a suplir
resolviendo varias deficiencias en el enfoque frecuentista enriqueciéndolo,
especialmente en el entorno no supervisado, donde el aprendizaje estadístico se
realiza sin ejemplos de predicción de objetivos.
En resumen: Hemos visto este uso de la
probabilidad bayesiana, en modelos de epidemiología, para determinar modelos de
evolución de datos sobre contagio y fallecimientos en el COVID y en el
procesamiento del lenguaje natural. Pero igualmente podríamos verlo en multitud
de casos en los más variados campos científicos y de análisis de procesos. De
esta forma, con la automatización de los métodos bayesianos y el uso de modelos
gráficos probabilísticos es posible identificar patrones y anomalías en
voluminosos conjuntos de datos en campos tan diversos como son los corpus
lingüísticos, los mapas astronómicos, añadir funcionalidades a la práctica de
la resonancia magnética, o a los hábitos de compra con tarjeta, online o
smartphones. Esto por señalar sólo algunos casos, como son los que se asocian
con el análisis de grandes datos y la teoría bayesiana. Pero hay muchos más (Bundy, 2007 y Wing, 2008, a través
de Zapata-Ros, 2020 agosto).
Así pues, este esquema, que hemos analizado en el artículo de
The Lancet, está presente en multitud de casos. Ello nos llevaba a decir (Zapata Ros, Agosto 2020)
que, si consideramos que el pensamiento bayesiano, esta forma de proceder, como
una parte un elemento más y relevante del pensamiento computacional, entonces a
lo dicho en anteriores ocasiones hay que añadir ahora la idea de pensamiento computacional generalizado
(pervasive computational thinking) como avance y desarrollo de lo
tratado en el pensamiento computacional simple, el que Wing (2006) plantea en
su primera aproximación.
Con esta inclusión conceptual, podemos hablar del “pensamiento
computacional por todas partes” (computational
thinking everywhere) (Wing, 2008). Ello se puede hacer al considerar que ya no se trata
de aspectos puramente asociados a la práctica profesional o vital ordinaria
para manejarse por la vida y el mundo del trabajo, como lo ha sido lo que hemos
llamado pensamiento computacional hasta ahora, sino como una preparación para
la investigación básica y para la metodología investigadora en casi todas las
disciplinas. Así definido , el pensamiento
computacional está influyendo en la investigación en casi todas las áreas, tanto en las ciencias como en las
humanidades (Bundy, 2007). Abundan
evidencias sobre la influencia del pensamiento computacional en otros campos: Está
transformando las estadísticas, donde con el machine learning, la
automatización de los métodos bayesianos y el uso de modelos gráficos
probabilísticos es posible identificar patrones y anomalías en voluminosos
conjuntos de datos.
------------------------
Barrow, B. (2019 Apr) Bayesian
Analysis in Natural Language Processing: Cohen. https://linguistlist.org/issues/30/30-1843/
Bundy, A. 2007 Computational thinking is
pervasive. J. Scient. Pract. Comput.1, 67–69. Google Scholar
Cohen, S. (2019). Bayesian
analysis in natural language processing. Synthesis Lectures on Human Language Technologies, 12(1), 1-343.
Drury, B.(2019 Aug). Bayesian
Analysis in Natural Language Processing, in Review: Computational
Linguistics; Text/Corpus Linguistics: Cohen (2019). https://linguistlist.org/issues/30/30-4380/
Wing, J.M. (July 2008) Computational thinking
and thinking about computing. The
Royal Society Publishing. https://doi.org/10.1098/rsta.2008.0118 https://royalsocietypublishing.org/doi/10.1098/rsta.2008.0118 https://royalsocietypublishing.org/doi/pdf/10.1098/rsta.2008.0118
Zapata-Ros, M. (Agosto 2020). El pensamiento computacional,
una cuarta competencia clave planteada por la nueva alfabetización (II). Una
nueva línea: computational thinking everywhere, pervasive
computational thinking y el pensamiento bayesiano. RED de Hypotheses.
https://red.hypotheses.org/2123
Comentarios
Publicar un comentario