De cerca, nadie es normal

To Overcome the Reluctance for Accepting AI, We Must Highlight the Gains in Terms of Productivity and Efficiency, Using Plain Language.

Posted: January 28th, 2021 | Author: | Filed under: Artificial Intelligence, Interviews | Tags: , , , | Comments Off on To Overcome the Reluctance for Accepting AI, We Must Highlight the Gains in Terms of Productivity and Efficiency, Using Plain Language.

As a welcome for the allocated seats in the Redesigning Financial Services Strategic Steering Committee, expert.ai’s Chief Operating Officer Gabriele Donino, and the Managing Director Switzerland Domingo Senise de Gracia were interviewed to talk about the use of artificial intelligence, the potentials, opportunities and barriers.

Link to the interview.


Inteligencia artificial para luchar contra el blanqueo de capitales

Posted: January 17th, 2021 | Author: | Filed under: Artificial Intelligence | Tags: , , , , , , | Comments Off on Inteligencia artificial para luchar contra el blanqueo de capitales

El blanqueo de capitales se define legalmente como la transferencia de dinero obtenido ilegalmente a través de personas o cuentas legítimas, de manera que no se pueda rastrear su fuente original.

El Fondo Monetario Internacional (FMI) estima que el tamaño agregado del blanqueo de capitales en todo el mundo es de aproximadamente 3,2 billones de dólares, o el 3% del PIB mundial. Los beneficios del blanqueo de capitales se utilizan a menudo para financiar delitos, como el terrorismo, la trata de personas, el tráfico de drogas y la venta ilegal de armas. Los bancos y otro tipo de instituciones financieras implementan sistemas contra el blanqueo de capitales. No cumplir con las normas de lucha contra el blanqueo de capitales es un tipo de delito corporativo, que significa un serio riesgo para la reputación de estas instituciones financieras. A pesar de los esfuerzos actuales, varias instituciones financieras multinacionales han sido objeto de fuertes multas por parte de los reguladores de la lucha contra el blanqueo de capitales, por la ineficacia de sus prácticas en los últimos años.

La introducción de la inteligencia artificial con el propósito de luchar contra el blanqueo de capitales mejora y facilita el proceso general de toma de decisiones, al tiempo que se mantiene el cumplimiento de políticas como el Reglamento General de Protección de Datos. La IA puede reducir al mínimo el número de transacciones falsamente etiquetadas como sospechosas, lograr una calidad demostrable de cumplimiento de las expectativas reglamentarias, y mejorar la productividad de los recursos operacionales.

La colocación, la diversificación y la integración son las tres fases en los procesos de blanqueo de capitales. En la fase de colocación el producto de las actividades delictivas se convierte en instrumentos monetarios o se deposita de otro modo en una institución financiera (o ambas situaciones). La diversificación se refiere a la transferencia de fondos a otras instituciones financieras o personas mediante transferencias electrónicas, cheques, giros postales u otros métodos. En la fase final de integración, los fondos se utilizan para adquirir activos legítimos o seguir financiando empresas delictivas. En este caso, el dinero obtenido ilegalmente pasa a formar parte de la economía legítima. Los enfoques de inteligencia artificial pueden aplicarse para identificar las actividades de blanqueo de capitales en cada una de las tres fases mencionadas. Pueden utilizarse métodos comunes de aprendizaje automático como las máquinas de vectores de soporte (support vector machines, según su denominación en inglés), y los bosques aleatorios (random forests, según su denominación en inglés), a fin de clasificar las transacciones fraudulentas utilizando grandes conjuntos de datos bancarios anotados.

En la actualidad, los esquemas típicos en la lucha contra el blanqueo de capitales pueden descomponerse en cuatro capas. La primera capa es la capa de datos, en la que se produce la recogida, gestión y almacenamiento de los datos relevantes. Esto incluye tanto los datos internos de la institución financiera como los datos externos de fuentes como agencias reguladoras, autoridades y listas de vigilancia. La segunda capa, la capa de control y vigilancia, examina las transacciones y los clientes en busca de actividades sospechosas. Esta capa ha sido automatizada en su mayor parte por las instituciones financieras en un procedimiento de varias etapas que a menudo se basa en normas o análisis de riesgos. Si se encuentra una actividad sospechosa, se pasa a la capa de alerta y eventos para una inspección en más detalle. El aprovechamiento de los datos en redes sociales y la web para adquirir información para la investigación está poco desarrollado en los sistemas actuales de lucha contra el blanqueo de capitales. Un analista humano toma la decisión de bloquear o aprobar una transacción en la capa de operaciones.

Procesamiento de lenguaje natural, ingeniería ontológica, aprendizaje automático, aprendizaje profundo y análisis de sentimiento

El procesamiento de lenguaje natural (PLN) y la ingeniería ontológica, ambos campos de la inteligencia artificial, pueden ayudar a aliviar la carga de trabajo al proporcionar a los expertos humanos una valoración y una visualización de las relaciones, basadas en datos de las noticias: por ejemplo, la base de datos de noticias de los bancos y las fuentes de noticias tradicionales o de las redes sociales  en relación con la posible entidad defraudadora. Un enfoque para identificar el blanqueo de capitales consiste en definir un grafo de conocimiento relativo a las entidades. El reconocimiento de entidades es un conjunto de algoritmos capaces de reconocer las entidades pertinentes; a saber, personas, cargos y empresas mencionadas en una cadena de texto de entrada. La extracción de relaciones detecta la relación entre dos entidades nombradas (e1 , e2) en una oración dada,  típicamente expresada como un triplete [ e1 , r, e2 ] donde r es una relación entre e1 y e2. La resolución de entidades determina si las referencias a las entidades mencionadas en diversos registros y documentos se refieren a la misma o a diferentes entidades. Por ejemplo, una misma persona puede ser mencionada de diferentes maneras, y una organización podría tener diferentes direcciones. Los principales desafíos en el aprendizaje de grafos para la lucha contra el blanqueo de capitales son la velocidad de aprendizaje/análisis de grafos y el tamaño de los mismos. El aprendizaje rápido de grafos utiliza redes neuronales convolucionales rápidas, y aumenta drásticamente las velocidades de entrenamiento en comparación con las redes neuronales convolucionales convencionales. El análisis de relaciones, de sentimiento y muchas otras técnicas basadas en el PLN y los grafos de conocimiento se utilizan a menudo para reducir los altos índices de falsos positivos en la lucha contra el blanqueo de capitales.

Otra manera de enmarcar la IA y la minería de datos en la lucha contra el blanqueo de capitales es a través de la detección de anomalías mediante técnicas de aprendizaje automático. De conformidad con este método, en primer lugar se define lo que sería una transacción normal o típica y luego se detecta cualquier transacción que sea lo suficientemente diferente como para ser considerada como anómala. Se define un grupo de elementos comunes, a fin de captar los hábitos de gasto típicos de un cliente. La agrupación es un método estándar para definir los grupos de elementos comunes; a continuación, se calcula una distancia entre las transacciones entrantes y los grupos de elementos comunes con el ánimo de detectar comportamientos anómalos, por ejemplo, mediante el algoritmo de agrupación k-medias (k-means, según su denominación en inglés).

El salto adelante significativo se ha producido al utilizar, en contraste con los enfoques convencionales de aprendizaje automático, métodos de aprendizaje profundo para aprender representaciones de características a partir de datos en bruto. En las técnicas de aprendizaje profundo, se aprenden múltiples capas de representación a partir de una capa de entrada de datos en bruto, utilizando manipulaciones no lineales en cada nivel de aprendizaje de la representación. El PLN y el aprendizaje profundo ya se utilizan en muchos niveles de cumplimiento normativo de la lucha contra el blanqueo de capitales.

La implementación de análisis de sentimiento puede ser útil también para la lucha contra el blanqueo de capitales. Entendido dicho análisis como una tarea de clasificación masiva, mediante PLN, de documentos de manera automática en función de la connotación positiva o negativa del lenguaje del documento, su función principal es acortar el período de investigación por parte de un responsable de cumplimiento normativo. Puede aplicarse en diferentes niveles, incluidas las etapas de gestión de atrasos, incorporación de clientes y supervisión del perfil de los mismos. El objetivo de un sistema de análisis de sentimiento en este contexto es vigilar las tendencias de sentimiento asociadas con un cliente, para identificar patrones importantes. Cuando los investigadores de la lucha contra el blanqueo de capitales identifican una empresa que ha participado potencialmente en una transacción sospechosa, generalmente consultan Internet para obtener pruebas. El análisis de los niveles de sentimiento de las noticias relativas a una organización específica puede revelar una gran cantidad de pruebas. El análisis de sentimiento basado en el PLN puede examinar miles de artículos en segundos, mejorando significativamente el proceso de investigación en términos de eficiencia y precisión. El análisis de sentimiento también puede emplearse en el proceso de monitoreo del perfil del cliente y de la incorporación del mismo, con el ánimo de investigar e identificar puntos débiles específicos de un cliente y sus vinculaciones con artículos negativos. En términos de IA, se han utilizado numerosas técnicas para el análisis de sentimiento, entre ellas las máquinas de vectores de soporte, los campos aleatorios condicionales (conditional random fields, según su denominación en inglés) y las redes neuronales profundas como las redes neuronales convolucionales y las redes neuronales recurrentes.

Métodos explicables de inteligencia artificial

La eficacia de los sistemas de IA está limitada en cierta medida por su capacidad para explicar una decisión específica que se ha tomado o predicho. La naturaleza de la explicación varía según las diferencias de los datos y los algoritmos, y hasta ahora no se ha implementado ningún marco común o estándar de explicación.

La comunicación con los analistas es de suma importancia cuando se diseña cualquier sistema de lucha contra el blanqueo de capitales, puesto que los usuarios toman la decisión final. Los métodos explicables de IA funcionan proporcionando a los usuarios información clara sobre por qué se hizo una predicción: por ejemplo, por qué el sistema cree que una transacción es sospechosa, a fin de ayudar a los usuarios a tomar una decisión y fomentar la comprensión de la tecnología por parte de los mismos. Es importante que cualquier sistema pueda explicar sus decisiones de manera sencilla para el usuario. Las políticas europeas y el Reglamento General de Protección de Datos hacen hincapié en la necesidad de que las instituciones financieras proporcionen decisiones explicables y autorizadas por el ser humano. Es fundamental que cualquier método de lucha contra el blanqueo de capitales incorpore un analista humano y garantice que éste comprenda claramente la información que se le presenta. Un sistema de “caja negra” que etiqueta una transacción como “fraudulenta” sin ningún tipo de explicación o argumentación es inaceptable.

Finalmente, en este futuro entorno de trabajo común, una decisión final tomada por el humano, que puede o no apoyar la predicción del sistema, debería ser retro-propagada al modelo de IA para mejorar su capacidad de toma de decisiones. Los sistemas de lucha contra el blanqueo de capitales no deberían ser lineales sino cíclicos, en los que los modelos de IA se comuniquen y aprendan de los analistas. Sólo a través de este esfuerzo conjunto de los seres humanos y la inteligencia artificial los procedimientos de lucha contra el blanqueo de capitales lograrán un éxito excepcional.


Growing in Switzerland: the Example of expert.ai

Posted: November 11th, 2020 | Author: | Filed under: Artificial Intelligence | Tags: , , , , , | Comments Off on Growing in Switzerland: the Example of expert.ai

In 2020, the AI Forum Live was born. This comprehensive digital event is bringing together AI leaders and experts to learn more about cutting-edge artificial intelligence strategies and solutions. Organised by Associazione Italiana per l’Intelligenza Artificiale (AIxIA), which promotes the study and research of AI, this live forum is reuniting the world of research with that of businesses in hopes of building promising new collaborations.

Expert.ai Managing Director – Switzerland Domingo Senise de Gracia, will partake in a workshop on November 3rd at 12.30 pm CET to discuss expert.ai’s international expansion and new venture in Switzerland. The presentation will share the main challenges and opportunities expert.ai considered when choosing Switzerland as a strategic environment to leverage and deploy its AI approach.


Entrevista en InnovaSpain: “La revolución de la IA está por hacer”

Posted: November 11th, 2020 | Author: | Filed under: Artificial Intelligence | Tags: , , | Comments Off on Entrevista en InnovaSpain: “La revolución de la IA está por hacer”

El director general en Suiza de expert.ai y cofundador de hAItta lamenta que sólo alrededor de un 30% de las empresas de todo el mundo utilice la inteligencia artificial de manera decidida.

https://www.innovaspain.com/domingo-senise-inteligencia-artificial-haitta-expert-ai/


Language is a Rum Thing

Posted: September 29th, 2020 | Author: | Filed under: Artificial Intelligence | Tags: , , , , | Comments Off on Language is a Rum Thing

Zipf and His Word Frequency Distribution Law

Although it might sound surprising for some data scientists, the supposedly successful use of machine learning techniques to tackle the problem of natural language processing is based on the work of an US philologist called George Kingsley Zipf (1902-1950). Zipf analyzed the frequency distribution of certain terms and words in several languages, enunciating the law named after him in the 40’s of the past century. Ah, these crazy linguists!

One of the most puzzling facts about human language is also one of the most basic: Words occur according to a famously systematic frequency distribution such that there are few very high-frequency words that account for most of the tokens in text (e.g., “a,” “the,” “I,” etc.) and many low-frequency words (e.g., “accordion,” “catamaran,” “jeopardize”). What is striking is that the distribution is mathematically simple, roughly obeying a power law known as Zipf’s law: The rth most frequent word has a frequency f(r) that scales according to

f(r)∝1/rα

for α≈1 (Zipf, 1932, 1936)(1) In this equation, r is called the frequency rank of a word, and f(r) is its frequency in a natural corpus. Since the actual observed frequency will depend on the size of the corpus examined, this law states frequencies proportionally: The most frequent word (r = 1) has a frequency proportional to 1, the second most frequent word (r = 2) has a frequency proportional to 1/2α, the third most frequent word has a frequency proportional to 1/3α, and so forth.

From Zipf`s standpoint as well, the length of a word, far from being a random matter, is closely related to the frequency of its usage -the greater the frequency, the shorter the word. The more complex any speech-element is phonetically, the less frequent it occurs. In English the most frequent word in the sample will occur on the average once in approximately every 10 words; the second most frequent word once in every 20 words; the third most frequent word once in every 1,000 words; in brief, the distribution of words in English approximates with remarkable precision an harmonic series. Similarly, one finds in English (or Latin or Chinese) the following striking correlation. If the number of different words occurring once in a given sample is taken as x, the number of different words occurring twice, three times, four times, n times, in the same sample, is respectively 1/22, 1/32, 1/42… 1/n2 of x, up to, though not including, the few most frequently used words; that is, an unmistakable progression according to the inverse square is found, valid for over 95% of all the different words used in the sample.

This evidence points to the existence of a fundamental condition of equilibrium between the form and function of speech-habits, or speech-patterns, in any language. The impulse to preserve or restore this condition of equilibrium is the underlying cause of linguistic change. All speech-elements or language-patterns are impelled and directed in their behavior by a fundamental law of economy, in which there is the desire to maintain an equilibrium between form and behavior, always according to Zipf.

Nonetheless, if our languages are pure statistical distributions, what happens with meanings? Is there a multiplicative stochastic process at play? Absolutely not! We select and arrange our words according to their meanings with little or no conscious reference to the relative frequency of occurrence of those words in the stream of speech, yet we find that words thus selected and arranged have a frequency distribution of great orderliness which for a large portion of the curve seems to be constant for language in general. The question arises as to the nature of the meaning or meanings which leads automatically to this orderly frequency distribution.

A study of language is certainly incomplete which totally disregards all questions of meaning, emotion, and culture even though these refer to the most elusive of mental phenomena.

Daniel Everett and Language as a Cultural Tool          

According to the linguist Everett, language is an artifact, a cultural tool, an instrument created by hominids to satisfy their social need of meaning and community (Everett, 2013)(2).

Linguists, psychologists, anthropologists, biologists, and philosophers tend to divide into those who believe that human biology is endowed with a language-dedicated genetic program and those who believe instead that human biology and the nature of the world provide general mechanisms, that allow us the flexibility to acquire a large array of general skills and abilities of which language is but one. The former often refers to a “language instinct” or a “universal grammar” (Chomsky dixit) shared by all humans. The latter talk about learning language as we learn many other skills, such as cooking, chess, or carpentry. The latter proposal takes seriously the idea that the function of language shapes its form. It recognizes the linguistic importance of the utilitarian forces radiating from the human necessity to communicate in order to survive. Language emerges as the nexus of our biological endowment and our environmental existence.

According to Chomsky meaning is secondary to grammar and all we need to understand of a formal grammar is that if we follow the rules and combine the symbols properly, then the sentences generated are grammatical -does it sound familiar to the ML approach to NLP?. Nonetheless, this is not accurate: beings with just a grammar would not have language. In fact, we know that meaning drives most, if not all the grammar. Meaning would have to appear at least as early in the evolution of language as grammar.

Forms in language vary radically and thus serve to remind us that humans are the only species with a communication system whose main characteristics is variation and not homogeneity. Humans do not merely produce fixed calls like vervet monkeys, they fit their messages to specific contexts and intentions.

People organize their words by related meanings -semantic fields-, by sound structure, by most common meanings, and so on. Even our verb structures are constrained by our cultures and what these cultures consider to be an “effable event”. For instance, the Pirahãs -an indigenous people of the Amazon Rainforest in Brazil- do not talk about the distant past or the far-off future because a cultural value of theirs is to talk only about the present or the short-term past or future.

Can grammatical structure itself be shaped by culture? Let’s consider another example: researchers claim there is no verb “to give” in Amele mainly for cultural reasons: giving is so basic to Amele culture the language manifests a tendency to allow the “experiential basicness” of giving to correspond to a “more basic kind of linguistic form” – that is zero. No verb is needed for this fundamental concept of Amele culture.

Language has been shaped in its very foundation by our socio-cultural needs. Languages fit their cultural niches and take on the properties required of them in their environments. That is one reason that languages change over time -they evolve to fit new cultural circumstances.

Our language is shaped to facilitate communication. There is very little evidence for arbitrariness in the design of grammars. People both overinterpret and under-interpret what they hear based on cultural expectations built into their communication patterns. We learn to predict, by means of what some researchers think is a sophisticated and unconscious computational computation of probabilities what a speaker is likely to say next once we learn that the relationships amongst words are contingent what the likehood of one word following another one is. Crucial for language acquisition is what we call the “interactional instinct”. This instinct is at innate drive amongst human infants to interact with conspecific caregivers. Babies and children learn from their parents’ faces what is in their parents’ minds and they adjust their own inner mental lives accordingly. Rather than learning algebraic procedures for combining symbols, children instead seem to learn linguistic categories and constructions as patterns of meaningful symbols.

All humans belong to culture and share values and knowledge with other members of their cultures. With the current approach an AI/NLP model will never be able to learn culture. Therefore, it can never learn a language stricto sensu, though it can learn lists of grammatical rules and lexical combinations.

Without culture, no background, without background no signs, without signs, no stories and no language.

Recapping, it seems NLP keeps on being the last challenge for AI practitioners and aficionados. Blending the mathematical-statistical and tbe symbolic approaches is paramount to find a solution to this conundrum. I’m positive the moment we succeed, we’ll be closer to strong AI… Still a long way ahead.

Die Grenzen Meiner Sprache sind die Grenzen meiner Welt. Ludwig Wittgenstein (1889 – 1951).

Bibliography:

(1) The Psycho-Biology of Language. An Introduction to Dynamic Philology. George Kingsley Zipf. 1936

Selected Studies of the Principle of Relative Frequency in Language. George Kingsley Zipf. 1932,

(2) Language. The Cultural Tool. Daniel Everett, 2013. Profile Books.