A base de dados é composta por 383 resumos de artigos obtidos por raspagem de dados do site www.deepmind.com/research/publications/ em XX de 2019. A tabela abaixo apresenta os 2 primeiros registros
| titulo | resumo | publicacao | premiado | ano | autor |
|---|---|---|---|---|---|
| A Better Baseline for AVA | We introduce a simple baseline for action localization on the AVA dataset. The model builds upon the Faster R-CNN bounding box detection framework, adapted to operate on pure spatiotemporal features - in our case produced exclusively by an I3D model pretrained on Kinetics. This model obtains 21.9% average AP on the validation set of AVA v2.1, up from 14.5% for the best RGB spatiotemporal model used in the original AVA paper (which was pretrained on Kinetics and ImageNet), and up from 11.3 of the publicly available baseline using a ResNet101 image feature extractor, that was pretrained on ImageNet. Our final model obtains 22.8%/21.9% mAP on the val/test sets and outperforms all submissions to the AVA challenge at CVPR 2018. | arXiv | NÃO | 2018 | R Girdhar,J Carreira,C Doersch,A Zisserman |
| A Block Coordinate Ascent Algorithm for Mean-Variance Optimization | Risk management in dynamic decision problems is a primary concern in many fields, including financial investment, autonomous driving, and healthcare. The mean-variance function is one of the most widely used objective functions in risk management due to its simplicity and interpretability. Existing algorithms for mean-variance optimization are based on multi-time-scale stochastic approximation, whose learning rate schedules are often hard to tune, and have only asymptotic convergence proof. In this paper, we develop a model-free policy search framework for mean-variance optimization with finite-sample error bound analysis (to local optima). Our starting point is a reformulation of the original mean-variance function with its Fenchel dual, from which we propose a stochastic block coordinate ascent policy search algorithm. Both the asymptotic convergence guarantee of the last iteration’s solution and the convergence rate of the randomly picked solution are provided, and their applicability is demonstrated on several benchmark domains. | arXiv | NÃO | 2018 | B Liu,T Xie,Y Xu,M Ghavamzadeh,Y Chow,D Lyu,D Yoon |
Os artigos estão distribuídos em 30 publicações/anais de conferências distintas, com grande concentração no sistema de pre-print arXiv, da Universidade de Cornell.
| publicacao | n | perc | acum | acum_perc |
|---|---|---|---|---|
| arXiv | 188 | 49.09 | 188 | 49.09 |
| Neural Information Processing Systems (Conf) | 56 | 14.62 | 244 | 63.71 |
| International Conference on Learning Representations | 42 | 10.97 | 286 | 74.68 |
| International Conference on Machine Learning | 31 | 8.09 | 317 | 82.77 |
| Nature | 12 | 3.13 | 329 | 85.90 |
| Association for Computational Linguistics (Conf.) | 6 | 1.57 | 335 | 87.47 |
| International Joint Conferences on Artificial Intelligence (Conf) | 6 | 1.57 | 341 | 89.04 |
| European Conference on Computer Vision | 5 | 1.31 | 346 | 90.35 |
| Association for the Advancement of Artificial Intelligence (Conf.) | 4 | 1.04 | 350 | 91.39 |
| Neuron | 4 | 1.04 | 354 | 92.43 |
| bioRxiv | 3 | 0.78 | 357 | 93.21 |
| Uncertainty in Artificial Intelligence (Conf.) | 2 | 0.52 | 359 | 93.73 |
| Annual Meeting of the Cognitive Science Society | 2 | 0.52 | 361 | 94.25 |
| Computer Vision and Pattern Recognition (Conf.) | 2 | 0.52 | 363 | 94.77 |
| International Conference on Artificial Intelligence and Statistics (Conf.) | 2 | 0.52 | 365 | 95.29 |
| International Conference on Computer Vision | 2 | 0.52 | 367 | 95.81 |
| Proceedings of the National Academy of Sciences | 2 | 0.52 | 369 | 96.33 |
| Science | 2 | 0.52 | 371 | 96.85 |
| ACM IUI | 1 | 0.26 | 372 | 97.11 |
| AIIDE | 1 | 0.26 | 373 | 97.37 |
| Behavioral and Brain Sciences | 1 | 0.26 | 374 | 97.63 |
| Current Opinion in Behavioral Sciences | 1 | 0.26 | 375 | 97.89 |
| eLife | 1 | 0.26 | 376 | 98.15 |
| EMNLP | 1 | 0.26 | 377 | 98.41 |
| GECCO | 1 | 0.26 | 378 | 98.67 |
| IEEE | 1 | 0.26 | 379 | 98.93 |
| RSS | 1 | 0.26 | 380 | 99.19 |
| Scientific Reports | 1 | 0.26 | 381 | 99.45 |
| Solomonoff Memorial Conference Melbourne | 1 | 0.26 | 382 | 99.71 |
| Trends in Cognitive Sciences | 1 | 0.26 | 383 | 99.97 |
Há uma grande inflexão nas curvas a partir de 2015, com destaque para arXiv. Vale notar que, como pre-print, não há avaliação ou seleção dos artigos. Cabe saber se deepmind republicou tudo dessa área de conhecimento que havia em arXivs ou se fez alguma curadoria.
Na preparação dos resumos, foram retiradas stop-words em inglês e termos compostos apenas por algarismos. Isso resultou em 31.069 termos, sendo mais frequentes:
## Joining, by = "word"
| word | n | perc | acum | acum_perc |
|---|---|---|---|---|
| learning | 643 | 2.07 | 643 | 2.07 |
| model | 328 | 1.06 | 971 | 3.13 |
| neural | 242 | 0.78 | 1213 | 3.90 |
| models | 240 | 0.77 | 1453 | 4.68 |
| reinforcement | 213 | 0.69 | 1666 | 5.36 |
| tasks | 201 | 0.65 | 1867 | 6.01 |
| data | 197 | 0.63 | 2064 | 6.64 |
| based | 190 | 0.61 | 2254 | 7.25 |
| networks | 180 | 0.58 | 2434 | 7.83 |
| network | 179 | 0.58 | 2613 | 8.41 |
Foi feito o steeming dos termos, de modo a reduzir as formas flexionadas a seu radical. Isso resolve os termos em plural, flexões de verbo e gênero, por exemplo:
| stema | n | perc | acum | acum_perc |
|---|---|---|---|---|
| learn | 908 | 2.92 | 908 | 2.92 |
| model | 621 | 2.00 | 1529 | 4.92 |
| network | 359 | 1.16 | 1888 | 6.08 |
| task | 327 | 1.05 | 2215 | 7.13 |
| agent | 320 | 1.03 | 2535 | 8.16 |
| gener | 306 | 0.98 | 2841 | 9.14 |
| train | 301 | 0.97 | 3142 | 10.11 |
| algorithm | 283 | 0.91 | 3425 | 11.02 |
| neural | 243 | 0.78 | 3668 | 11.81 |
| perform | 223 | 0.72 | 3891 | 12.52 |
A estatistica tf-idf pretende medir quão importante uma palavra é em um documento ou corpus. tf representa a frequência do termo, enquanto idf é a frequência inversa do documento. Quando combinados, o segundo termo ajusta a o primeiro, aumentando o peso dos termos menos comuns nos documentos do corpus. The inverse document frequency will be a higher number for words that occur in fewer of the documents in the collection.
| titulo | stema | n | total | tf | idf | tf_idf |
|---|---|---|---|---|---|---|
| Is the brain a good model for machine intelligence? | alan | 1 | 10 | 0.10 | 5.95 | 0.59 |
| Is the brain a good model for machine intelligence? | birth | 1 | 10 | 0.10 | 5.95 | 0.59 |
| Is the brain a good model for machine intelligence? | celebr | 1 | 10 | 0.10 | 5.95 | 0.59 |
| Is the brain a good model for machine intelligence? | centenari | 1 | 10 | 0.10 | 5.95 | 0.59 |
| Is the brain a good model for machine intelligence? | entrepreneur | 1 | 10 | 0.10 | 5.95 | 0.59 |
| Sequence-to-sequence neural network models for transliteration | transliter | 3 | 32 | 0.09 | 5.95 | 0.56 |
| A probabilistic approach to demixing odors | olfactori | 7 | 76 | 0.09 | 5.95 | 0.55 |
| Convolution by Evolution: Differentiable Pattern Producing Networks | dppn | 8 | 87 | 0.09 | 5.95 | 0.55 |
| Learned Deformation Stability in Convolutional Neural Networks | deform | 8 | 77 | 0.10 | 5.25 | 0.55 |
| Smooth UCT Search in Computer Poker | uct | 7 | 78 | 0.09 | 5.95 | 0.53 |
Essa tabela evidencia que o texto “Is the brain…” contém um conjunto bastante particular de termos, só encontrados nesse resumo (alto idf). Isso, aliado ao fato de ser um resumo curto (após a retirada das stopwords, restaram 10 stemas; o tf é de 1/10 para cada stema), levou a um alto valor da estatística.
Será que existe diferença entre a importância dos termos publicados em arXiv e nas outras publicações (lembrando a diferença dos modelos de publicação?)
Em que pese essa análise considerar apenas os 35 termos de maior tf_idf de cada tipo, parece haver um conjunto de termos em convencional que aponta para aplicações (olfactori, odor, lingual, neurosci, dialogu, music, piano, entrepeneur) e meta-análise (celebr, alan, cenetenari), enquanto o conjunto publivado em arXiv parece ser eminentemente teórico (exceção para o termo social).
Na mineração de texto, muitas vezes temos coleções de documentos, como postagens em blogs ou artigos de notícias, que gostaríamos de dividir em grupos naturais para que possamos compreendê-los separadamente. A modelagem de tópicos é um método para classificação não supervisionada de tais documentos, semelhante ao armazenamento em cluster em dados numéricos, que encontra grupos naturais de itens mesmo quando não temos certeza do que estamos procurando.
A Latent Dirichlet Allocation (LDA) é um método particularmente popular para ajustar um modelo de tópico. Ele trata cada documento como uma mistura de tópicos e cada tópico como uma mistura de palavras. Isso permite que os documentos “se sobreponham” uns aos outros em termos de conteúdo, em vez de serem separados em grupos distintos, de forma a espelhar o uso típico da linguagem natural.
Há dois princípios básicos em curso:
Todo documento é uma mistura de tópicos. Imagina-se que cada documento pode conter palavras de vários tópicos em proporções específicas. Por exemplo, em um modelo de dois tópicos, poderíamos dizer: “Documento 1 é 90% tópico A e 10% tópico B, enquanto o Documento 2 é 30% tópico A e 70% tópico B.”
Todo tópico é uma mistura de palavras. Por exemplo, poderíamos imaginar um modelo de dois tópicos de notícias americanas, com um tópico para “política” e outro para “entretenimento”. As palavras mais comuns no tópico político podem ser “Presidente”, “Congresso” e “governo”. ”, Enquanto o tópico de entretenimento pode ser composto de palavras como“ filmes ”,“ televisão ”e“ ator ”. É importante ressaltar que as palavras podem ser compartilhadas entre os tópicos; uma palavra como “orçamento” pode aparecer em ambos igualmente.
Arbitraremos o número de “clusters” em 3. O gráfico a seguir apresenta os termos com maior probabilidade de serem originários dessas classes:
Maiores diferenças
A primeira vista, os grupos 2 e 3 parecem semelhantes, pois compartilham probabilidades semelhantes para termos como “learn”, “model” e “agent”. No gráfico que os contrasta, observamos a presença de termos como “dilemma”, “return”, “regret” no grupo 3; no contexto dessa análise, esses termos estão associados a aplicações de ML no campo da teoria de jogos e comportamento, como o dilema do prisioneiro.
Para tentar identificar as grandes áreas de conhecimento tratadas no artigos, vamos criar classes de equivalência para os campos da ciência. Assim, será classificado como:
“sociais” termos: econometrics, economics, communication, education, babilinguistic, lingual, linguistic, linguistics, linguistically, multilingual, psychlab, sychological, psychology, psychophysics, history, historical, social, socially, societies.
“biológicas” : anatomy, bacteria, biology, biological, biologically, biomimetic, biotechnology, cardiorespiratory, ecological, endotracheal, entorhinal, genetic, neurons, neuroscience, neuroscientific, neurotransmitter, pathologies, radiosensitive, radiotherapy, enviromental, cell, cells, organism, dopaminergic, electrophysiological, physiology, curative, clinical, clinically
“exatas” : acoustic, chemicals, chemistry, geometry, mechanical, mechanics, optical, physics, robot, robotic, robotics, robots, spectral, spectrally, spectrogram, spectrograms, spectrum, atomic, wave, waveforms, waves, pixel, audio,
## Document-feature matrix of: 383 documents, 3 features (89.6% sparse).
106 resumos (28% do total) apresentaram pelo menos um dos termos pesquisados e puderam ser classificados. Destes, 27 (7%) foram classificados em “sociais”, 34 (9%) em “biológicas” e 59 (15%) em exatas. Os dez textos com maior número de ocorrências por campo podem ser vistos a seguir
| titulo | biologicas |
|---|---|
| Vector-based navigation using grid-like representations in artificial agents | 9 |
| A probabilistic approach to demixing odors | 6 |
| Deep learning to achieve clinically applicable segmentation of head and neck anatomy for radiotherapy | 6 |
| Negative Update Intervals in Deep Multi-Agent Reinforcement Learning | 5 |
| Reference environments: A universal tool for reproducibility in computational biology | 5 |
| Clinically applicable deep learning for diagnosis and referral in retinal disease | 4 |
| Human Level Control Through Deep Reinforcement Learning | 3 |
| Neuroscience-Inspired Artificial Intelligence | 3 |
| Prefrontal cortex as a meta-reinforcement learning system | 3 |
| Towards an integration of Deep Learning and Neuroscience | 3 |
| titulo | sociais |
|---|---|
| Inequity aversion resolves intertemporal social dilemmas | 8 |
| Psychlab: A Psychology Laboratory for Deep Reinforcement Learning Agents | 8 |
| Intrinsic Social Motivation via Causal Influence in Multi-Agent RL | 6 |
| Learning to Communicate with Deep Multi-Agent Reinforcement Learning | 4 |
| A multi-agent reinforcement learning model of common-pool resource appropriation | 3 |
| Many Languages, One Parser | 3 |
| Neuroscience-Inspired Artificial Intelligence | 3 |
| Computations Underlying Social Hierarchy Learning: Distinct Neural Mechanisms for Updating and Representing Self-Relevant Information | 2 |
| End-to-end optimization of goal-driven and visually grounded dialogue systems | 2 |
| Garbage In, Reward Out: Bootstrapping Exploration in Multi-Armed Bandits | 2 |
| titulo | exatas |
|---|---|
| Spectral Inference Networks: Unifying Spectral Methods With Deep Learning | 7 |
| WaveNet: A Generative Model for Raw Audio | 6 |
| A Comparative Study of Bug Algorithms for Robot Navigation | 5 |
| Deep Reinforcement Learning for Robotic Manipulation | 5 |
| The challenge of realistic music generation: modelling raw audio at scale | 5 |
| Efficient Neural Audio Synthesis | 4 |
| From pixels to percepts: Highly robust edge perception and contour following using deep learning and an optical biomimetic tactile sensor | 4 |
| Learning Deployable Navigation Policies at Kilometer Scale from a Single Traversal | 4 |
| Leveraging Demonstrations for Deep Reinforcement Learning on Robotics Problems with Sparse Rewards | 4 |
| Objects that Sound | 4 |