Teste de Turing
Um agente imita um humano numa
conversa escrita com um humano
que tenta adivinhar se este é um
humano.
O teste não é muito útil -- não é
uma boa demonstração de
inteligência -- mas ainda é o
standard.
Homem vs Máquina:
● 1997: Deep Blue (IBM): Xadrez
● 2011: Watson (IBM): Jeopardy (concurso televisivo)
● 2016: AlphaGo: Go (jogo de tabuleiro)
● 2017: Libratus: Póquer 2 Jogadores (NL Texas Holdem)
● 2019: Pluribus: Póquer 6 Jogadores (NL Texas Holdem)
● 2019: AlphaStar: Starcraft II
Tarefas complexas:
Reservar mesa num restaurante
- Hi, I’m calling to make a reservation, I’m looking for a table
on Friday the fourth.
- This Friday?
- Yes.
- Let me see. How many people?
- For two people.
- What time?
- Seven pm.
Supervised Learning
● O modelo é treinado com base em dados categorizados
○ “Nestas 5000 imagens contêm carros, nestas outras 5000 estão cães”
○ O agente aprende a distinguir carros de cães em imagens.
● Aplicações:
○ Reconhecimento de voz
○ Reconhecimento de texto
○ Reconhecimento facial
Unsupervised Learning
● Não são necessários dados pré-classificados
● Definimos “características” dos dados:
○ Tamanho, cor, textura, peso, grafo social, etnia, origem, “likes”, etc.
● O modelo agrupa / relaciona dados com base nas suas características
Unsupervised Learning - Aplicações
● Recomendações Amazon, Spotify, etc.
● Publicidade dirigida
● Deteção de fraude em comércio online (Feedzai)
● Identificação grupos / relações de indivíduos
○ Eleitores indecisos (ver caso Cambridge Analytica)
○ Potenciais conspiradores / terroristas
Reinforcement Learning
● O agente é inicializado numa
simulação, com:
○ Constrangimentos iniciais
○ Regras
○ Ações possíveis
● O agente recebe uma recompensa
quando executa uma ação correta
● O agente aprende a sequência de
ações que maximiza a recompensa
num dado momento.
Reinforcement Learning – Aplicações
● Condução autónoma;
● Jogos (xadrez, Go, Starcraft, Póquer, etc.);
● Resolução de problemas em ambientes reais / simulados.
Deep Fakes
● “Deep Learning” + “Fakes”
● Generative Adversarial Networks:
○ Um agente treinado para gerar um vídeo manipulado (gerador)
○ Outro agente treinado para distinguir vídeos reais de manipulações (discriminador)
○ Ambos “competem” para gerar um vídeo final muito difícil de distinguir da realidade
“Serious safety lapses led to Uber’s fatal self-driving crash”
The Verge 06.11.2019
● “Uber’s vehicle decided it needed to brake 1.3
seconds before striking Herzberg, but the
company had previously disabled the SUV’s
factory-set automatic emergency braking
system in order to prevent erratic driving”
● “As the [automated driving system] changed
the classification of the pedestrian several
times—alternating between vehicle, bicycle,
and an other— the system was unable to
correctly predict the path of the detected
object,”
● A Inteligência Artificial ainda não tem “vontade própria”...
○ Nem se espera que tenha tão cedo;
● Agentes “inteligentes” realizam tarefas cada vez mais complexas;
● Estes agentes podem comportar-se de forma inesperada:
○ Por acidente;
○ Por malícia;
● São necessárias “montanhas” de dados para treinar um agente:
○ Os dados são uma ferramenta poderosa nas mãos certas (para o bem e para o mal);
● Má definição de objetivos ou dados enviesados resultam em agentes
“inteligentes” enviesados;
● É cada vez mais fácil manipular populações com recurso a grandes
quantidades de dados e machine learning.
Muitas destas áreas já foram conquistadas por máquinas. Entao? Como ficamos? Será que as máquinas já são inteligentes?
Alguns especialistas falam do efeito IA (AI effect), em que quando uma determinada área é “conquistada” pelas máquinas, tal como foi o Xadrez, deixa de ser considerada uma área inteligente.
Como inteligencia artificial é um conceito um pouco elusivo (está sempre a mudar), é preferível falar na capacidade das máquinas em aprender, por isso vamo-nos focar nisto (Machine learning)
Deep Blue: Deep Blue–Kasparov: 3½–2½
Watson: legendary champions Brad Rutter and Ken Jennings,[4][7] winning the first place prize of $1 million.[8] -> breakthrough em processamento e compreensão de linguagem natural. A pergunta é colocada em forma de resposta e os concorrentes têm de responder em forma de pergunta.
AlphaGo: AlphaGo versus Lee Sedol 4–1 (Lee Sedol é 18 vezes campeão do mundo)
Libratus: At the 16th day of the competition, Libratus broke through the $1,000,000 barrier for the first time. At the end of that day, it was ahead $1,194,402 in chips against the human team. At the end of the competition, Libratus was ahead $1,766,250 in chips and thus won resoundingly. As the big blind in the matches was set to $100, Libratus winrate is equivalent to 14.7 big blinds per 100 hands. This is considered an exceptionally high winrate in poker and is highly statistically significant.[5]
Pluribus: vitória estatisticamente relevante em mesas com 1 agentes e 5 humanos, e com 5 agentes e 1 humano.
AlphaStar: Starcraft II
Ainda assim há tarefas que nos parecem extremamente difíceis de fazer por máquinas e que para nós são simples, tais como reservar uma mesa num restaurante através de uma conversa telefónica.
Acham que uma máquina seria capaz de compreender um ser humano numa conversa telefonica (que não soubesse que estava a falar com uma máquina?)
Talk de Inteligência Artificial
Ideias-Chave:
A inteligência artificial geral está muito longe de ter “consciência e vontade próprias” e o progresso dos últimos anos em algoritmos de aprendizagem e execução de tarefas não se tem traduzido em progressos tangíveis nesta área
No entanto tem-se realizado muitos progressos na área de processamento de linguagem natural, o que torna a nossa interação com as máquinas muito mais indistinguível da interação normal humana.
A aprendizagem computacional é lenta e rápida ao mesmo tempo: lenta porque uma máquina é muitas ordens de magnitude mais lenta do que um ser humano a executar uma tarefa (precisa de MUITO mais tentativas falhadas até conseguir executar uma tarefa) -- rápida porque pode tentar muito mais vezes do que um humano no mesmo tempo, devido ao facto de operar numa simulação.
A aprendizagem nas máquinas está muito condicionada a:
Ao que pedimos à máquina -- condições de sucesso (no caso de unsupervised learning)
Aos constrangimentos da simulação e aos dados que os seus sensores recebem.
Aos dados que lhe fornecemos como base de aprendizagem (e a eventuais vieses que possam conter)
Riscos das aplicações de aprendizagem / ML nas nossas vidas:
Data is the new oil: quem tem os dados tem capacidades extraordinárias de prever e influenciar comportamentos (exemplos cambridge analytica, capacidade google de identificar surtos de doenças em tempo real, Google Flu Trends, Facebook suicide prevention - https://about.fb.com/news/2018/09/inside-feed-suicide-prevention-and-ai/)
Amplificação de preconceitos e discriminação (exemplo amazon cv)
Manipulação de imagens (dados, videos, voz) -> deep fakes