O Corpus

A base de dados é composta por 383 resumos de artigos obtidos por raspagem de dados do site www.deepmind.com/research/publications/ em XX de 2019. A tabela abaixo apresenta os 2 primeiros registros

titulo resumo publicacao premiado ano autor
A Better Baseline for AVA We introduce a simple baseline for action localization on the AVA dataset. The model builds upon the Faster R-CNN bounding box detection framework, adapted to operate on pure spatiotemporal features - in our case produced exclusively by an I3D model pretrained on Kinetics. This model obtains 21.9% average AP on the validation set of AVA v2.1, up from 14.5% for the best RGB spatiotemporal model used in the original AVA paper (which was pretrained on Kinetics and ImageNet), and up from 11.3 of the publicly available baseline using a ResNet101 image feature extractor, that was pretrained on ImageNet. Our final model obtains 22.8%/21.9% mAP on the val/test sets and outperforms all submissions to the AVA challenge at CVPR 2018. arXiv NÃO 2018 R Girdhar,J Carreira,C Doersch,A Zisserman
A Block Coordinate Ascent Algorithm for Mean-Variance Optimization Risk management in dynamic decision problems is a primary concern in many fields, including financial investment, autonomous driving, and healthcare. The mean-variance function is one of the most widely used objective functions in risk management due to its simplicity and interpretability. Existing algorithms for mean-variance optimization are based on multi-time-scale stochastic approximation, whose learning rate schedules are often hard to tune, and have only asymptotic convergence proof. In this paper, we develop a model-free policy search framework for mean-variance optimization with finite-sample error bound analysis (to local optima). Our starting point is a reformulation of the original mean-variance function with its Fenchel dual, from which we propose a stochastic block coordinate ascent policy search algorithm. Both the asymptotic convergence guarantee of the last iteration’s solution and the convergence rate of the randomly picked solution are provided, and their applicability is demonstrated on several benchmark domains. arXiv NÃO 2018 B Liu,T Xie,Y Xu,M Ghavamzadeh,Y Chow,D Lyu,D Yoon

Publicações e Conferências

Os artigos estão distribuídos em 30 publicações/anais de conferências distintas, com grande concentração no sistema de pre-print arXiv, da Universidade de Cornell.

publicacao n perc acum acum_perc
arXiv 188 49.09 188 49.09
Neural Information Processing Systems (Conf) 56 14.62 244 63.71
International Conference on Learning Representations 42 10.97 286 74.68
International Conference on Machine Learning 31 8.09 317 82.77
Nature 12 3.13 329 85.90
Association for Computational Linguistics (Conf.) 6 1.57 335 87.47
International Joint Conferences on Artificial Intelligence (Conf) 6 1.57 341 89.04
European Conference on Computer Vision 5 1.31 346 90.35
Association for the Advancement of Artificial Intelligence (Conf.) 4 1.04 350 91.39
Neuron 4 1.04 354 92.43
bioRxiv 3 0.78 357 93.21
Uncertainty in Artificial Intelligence (Conf.) 2 0.52 359 93.73
Annual Meeting of the Cognitive Science Society 2 0.52 361 94.25
Computer Vision and Pattern Recognition (Conf.) 2 0.52 363 94.77
International Conference on Artificial Intelligence and Statistics (Conf.) 2 0.52 365 95.29
International Conference on Computer Vision 2 0.52 367 95.81
Proceedings of the National Academy of Sciences 2 0.52 369 96.33
Science 2 0.52 371 96.85
ACM IUI 1 0.26 372 97.11
AIIDE 1 0.26 373 97.37
Behavioral and Brain Sciences 1 0.26 374 97.63
Current Opinion in Behavioral Sciences 1 0.26 375 97.89
eLife 1 0.26 376 98.15
EMNLP 1 0.26 377 98.41
GECCO 1 0.26 378 98.67
IEEE 1 0.26 379 98.93
RSS 1 0.26 380 99.19
Scientific Reports 1 0.26 381 99.45
Solomonoff Memorial Conference Melbourne 1 0.26 382 99.71
Trends in Cognitive Sciences 1 0.26 383 99.97

Timeline dos artigos

Há uma grande inflexão nas curvas a partir de 2015, com destaque para arXiv. Vale notar que, como pre-print, não há avaliação ou seleção dos artigos. Cabe saber se deepmind republicou tudo dessa área de conhecimento que havia em arXivs ou se fez alguma curadoria.

Análise dos resumos

Na preparação dos resumos, foram retiradas stop-words em inglês e termos compostos apenas por algarismos. Isso resultou em 31.069 termos, sendo mais frequentes:

## Joining, by = "word"
word n perc acum acum_perc
learning 643 2.07 643 2.07
model 328 1.06 971 3.13
neural 242 0.78 1213 3.90
models 240 0.77 1453 4.68
reinforcement 213 0.69 1666 5.36
tasks 201 0.65 1867 6.01
data 197 0.63 2064 6.64
based 190 0.61 2254 7.25
networks 180 0.58 2434 7.83
network 179 0.58 2613 8.41

Foi feito o steeming dos termos, de modo a reduzir as formas flexionadas a seu radical. Isso resolve os termos em plural, flexões de verbo e gênero, por exemplo:

stema n perc acum acum_perc
learn 908 2.92 908 2.92
model 621 2.00 1529 4.92
network 359 1.16 1888 6.08
task 327 1.05 2215 7.13
agent 320 1.03 2535 8.16
gener 306 0.98 2841 9.14
train 301 0.97 3142 10.11
algorithm 283 0.91 3425 11.02
neural 243 0.78 3668 11.81
perform 223 0.72 3891 12.52

A estatistica tf-idf pretende medir quão importante uma palavra é em um documento ou corpus. tf representa a frequência do termo, enquanto idf é a frequência inversa do documento. Quando combinados, o segundo termo ajusta a o primeiro, aumentando o peso dos termos menos comuns nos documentos do corpus. The inverse document frequency will be a higher number for words that occur in fewer of the documents in the collection.

titulo stema n total tf idf tf_idf
Is the brain a good model for machine intelligence? alan 1 10 0.10 5.95 0.59
Is the brain a good model for machine intelligence? birth 1 10 0.10 5.95 0.59
Is the brain a good model for machine intelligence? celebr 1 10 0.10 5.95 0.59
Is the brain a good model for machine intelligence? centenari 1 10 0.10 5.95 0.59
Is the brain a good model for machine intelligence? entrepreneur 1 10 0.10 5.95 0.59
Sequence-to-sequence neural network models for transliteration transliter 3 32 0.09 5.95 0.56
A probabilistic approach to demixing odors olfactori 7 76 0.09 5.95 0.55
Convolution by Evolution: Differentiable Pattern Producing Networks dppn 8 87 0.09 5.95 0.55
Learned Deformation Stability in Convolutional Neural Networks deform 8 77 0.10 5.25 0.55
Smooth UCT Search in Computer Poker uct 7 78 0.09 5.95 0.53

Essa tabela evidencia que o texto “Is the brain…” contém um conjunto bastante particular de termos, só encontrados nesse resumo (alto idf). Isso, aliado ao fato de ser um resumo curto (após a retirada das stopwords, restaram 10 stemas; o tf é de 1/10 para cada stema), levou a um alto valor da estatística.

Será que existe diferença entre a importância dos termos publicados em arXiv e nas outras publicações (lembrando a diferença dos modelos de publicação?)

Em que pese essa análise considerar apenas os 35 termos de maior tf_idf de cada tipo, parece haver um conjunto de termos em convencional que aponta para aplicações (olfactori, odor, lingual, neurosci, dialogu, music, piano, entrepeneur) e meta-análise (celebr, alan, cenetenari), enquanto o conjunto publivado em arXiv parece ser eminentemente teórico (exceção para o termo social).

Modelagem por LDA

Na mineração de texto, muitas vezes temos coleções de documentos, como postagens em blogs ou artigos de notícias, que gostaríamos de dividir em grupos naturais para que possamos compreendê-los separadamente. A modelagem de tópicos é um método para classificação não supervisionada de tais documentos, semelhante ao armazenamento em cluster em dados numéricos, que encontra grupos naturais de itens mesmo quando não temos certeza do que estamos procurando.

A Latent Dirichlet Allocation (LDA) é um método particularmente popular para ajustar um modelo de tópico. Ele trata cada documento como uma mistura de tópicos e cada tópico como uma mistura de palavras. Isso permite que os documentos “se sobreponham” uns aos outros em termos de conteúdo, em vez de serem separados em grupos distintos, de forma a espelhar o uso típico da linguagem natural.

Há dois princípios básicos em curso:

  • Todo documento é uma mistura de tópicos. Imagina-se que cada documento pode conter palavras de vários tópicos em proporções específicas. Por exemplo, em um modelo de dois tópicos, poderíamos dizer: “Documento 1 é 90% tópico A e 10% tópico B, enquanto o Documento 2 é 30% tópico A e 70% tópico B.”

  • Todo tópico é uma mistura de palavras. Por exemplo, poderíamos imaginar um modelo de dois tópicos de notícias americanas, com um tópico para “política” e outro para “entretenimento”. As palavras mais comuns no tópico político podem ser “Presidente”, “Congresso” e “governo”. ”, Enquanto o tópico de entretenimento pode ser composto de palavras como“ filmes ”,“ televisão ”e“ ator ”. É importante ressaltar que as palavras podem ser compartilhadas entre os tópicos; uma palavra como “orçamento” pode aparecer em ambos igualmente.

Arbitraremos o número de “clusters” em 3. O gráfico a seguir apresenta os termos com maior probabilidade de serem originários dessas classes:

Maiores diferenças

A primeira vista, os grupos 2 e 3 parecem semelhantes, pois compartilham probabilidades semelhantes para termos como “learn”, “model” e “agent”. No gráfico que os contrasta, observamos a presença de termos como “dilemma”, “return”, “regret” no grupo 3; no contexto dessa análise, esses termos estão associados a aplicações de ML no campo da teoria de jogos e comportamento, como o dilema do prisioneiro.

Agrupamento de palavras por classes de equivalência

Para tentar identificar as grandes áreas de conhecimento tratadas no artigos, vamos criar classes de equivalência para os campos da ciência. Assim, será classificado como:

  • “sociais” termos: econometrics, economics, communication, education, babilinguistic, lingual, linguistic, linguistics, linguistically, multilingual, psychlab, sychological, psychology, psychophysics, history, historical, social, socially, societies.

  • “biológicas” : anatomy, bacteria, biology, biological, biologically, biomimetic, biotechnology, cardiorespiratory, ecological, endotracheal, entorhinal, genetic, neurons, neuroscience, neuroscientific, neurotransmitter, pathologies, radiosensitive, radiotherapy, enviromental, cell, cells, organism, dopaminergic, electrophysiological, physiology, curative, clinical, clinically

  • “exatas” : acoustic, chemicals, chemistry, geometry, mechanical, mechanics, optical, physics, robot, robotic, robotics, robots, spectral, spectrally, spectrogram, spectrograms, spectrum, atomic, wave, waveforms, waves, pixel, audio,

## Document-feature matrix of: 383 documents, 3 features (89.6% sparse).

106 resumos (28% do total) apresentaram pelo menos um dos termos pesquisados e puderam ser classificados. Destes, 27 (7%) foram classificados em “sociais”, 34 (9%) em “biológicas” e 59 (15%) em exatas. Os dez textos com maior número de ocorrências por campo podem ser vistos a seguir

titulo biologicas
Vector-based navigation using grid-like representations in artificial agents 9
A probabilistic approach to demixing odors 6
Deep learning to achieve clinically applicable segmentation of head and neck anatomy for radiotherapy 6
Negative Update Intervals in Deep Multi-Agent Reinforcement Learning 5
Reference environments: A universal tool for reproducibility in computational biology 5
Clinically applicable deep learning for diagnosis and referral in retinal disease 4
Human Level Control Through Deep Reinforcement Learning 3
Neuroscience-Inspired Artificial Intelligence 3
Prefrontal cortex as a meta-reinforcement learning system 3
Towards an integration of Deep Learning and Neuroscience 3
titulo sociais
Inequity aversion resolves intertemporal social dilemmas 8
Psychlab: A Psychology Laboratory for Deep Reinforcement Learning Agents 8
Intrinsic Social Motivation via Causal Influence in Multi-Agent RL 6
Learning to Communicate with Deep Multi-Agent Reinforcement Learning 4
A multi-agent reinforcement learning model of common-pool resource appropriation 3
Many Languages, One Parser 3
Neuroscience-Inspired Artificial Intelligence 3
Computations Underlying Social Hierarchy Learning: Distinct Neural Mechanisms for Updating and Representing Self-Relevant Information 2
End-to-end optimization of goal-driven and visually grounded dialogue systems 2
Garbage In, Reward Out: Bootstrapping Exploration in Multi-Armed Bandits 2
titulo exatas
Spectral Inference Networks: Unifying Spectral Methods With Deep Learning 7
WaveNet: A Generative Model for Raw Audio 6
A Comparative Study of Bug Algorithms for Robot Navigation 5
Deep Reinforcement Learning for Robotic Manipulation 5
The challenge of realistic music generation: modelling raw audio at scale 5
Efficient Neural Audio Synthesis 4
From pixels to percepts: Highly robust edge perception and contour following using deep learning and an optical biomimetic tactile sensor 4
Learning Deployable Navigation Policies at Kilometer Scale from a Single Traversal 4
Leveraging Demonstrations for Deep Reinforcement Learning on Robotics Problems with Sparse Rewards 4
Objects that Sound 4