Quais são atualmente os tópicos quentes na pesquisa de aprendizagem de máquinas e em aplicações reais?
Esta pergunta parece subjetiva, mas I'tentará respondê-la:
1. A aprendizagem profunda [5] parece estar sendo a mais pressionada neste momento. É uma forma de uma Rede Neural (com muitos neurônios/camadas). Artigos estão sendo publicados atualmente no New Yorker [1] e no New York Times[2] sobre Deep Learning.
2. Combinando Support Vector Machines (SVMs) e Stochastic Gradient Decent (SGD) também é interessante. SVMs são realmente interessantes e úteis porque você pode usar o truque do kernel [10] para transformar seus dados e resolver um problema não-linear usando um modelo linear (o SVM). Uma consequência deste método é o tempo de execução do treinamento e o consumo de memória das escalas SVM com o tamanho do conjunto de dados. Esta situação torna muito difícil o treinamento de SVMs em grandes conjuntos de dados. O SGD é um método que utiliza um processo aleatório para permitir que os algoritmos de aprendizagem da máquina converjam mais rapidamente. Para resumir uma longa história, você pode combinar SVMs e SGD para treinar SVMs em grandes conjuntos de dados (teoricamente). Para mais informações, leia este link[4].
3. Como os computadores agora são rápidos, baratos e abundantes, as estatísticas Bayesianas estão agora se tornando muito populares novamente (isto definitivamente não é "novo"). Por muito tempo não foi possível usar técnicas Bayesianas porque você precisaria realizar integrações probabilísticas à mão (ao calcular a evidência). Hoje, Bayesist está usando Cadeias Monte Carlo Markov[6], Aproximações de Grades[7], Amostragem de Gibbs[8], Algoritmo de Metrópolis [13], etc. Para mais informações, assista aos vídeos em Bayesian Networks on Coursera. ou leia estes livros [11], [12] (They're da bomba!!!!)
4. Qualquer um dos algoritmos descritos no documento "Map Reduce for Machine Learning on a Multicore"[3]. Este artigo fala sobre como pegar um algoritmo/problema de aprendizado de máquina e distribuí-lo por vários computadores/centros. Tem implicações muito importantes porque significa que todos os algoritmos mencionados no artigo podem ser traduzidos para um formato de redução de mapas e distribuídos através de um cluster de computadores. Essencialmente, nunca haveria uma situação em que o conjunto de dados fosse muito grande porque você poderia simplesmente adicionar mais computadores ao cluster do Hadoop. Este artigo foi publicado há algum tempo, mas nem todos os algoritmos foram implementados em Mahout ainda.
Aprendizagem da máquina é um campo de estudo realmente grande. Tenho certeza que há muito mais tópicos mas estes são quatro que eu definitivamente acho interessantes.
[1] O "Aprendizado Profundo" é uma Revolução na Inteligência Artificial?
[2] Cientistas Vêem Avanços no Aprendizado Profundo, uma Parte da Inteligência Artificial
[3] http://www.cs.stanford.edu/people/ang//papers/nips06-mapreducemulticore.pdf
[4] Kernel Approximations for Efficient SVMs (and other feature extraction methods) [update]
[5] Deep Learning
[6] Markov chain Monte Carlo
[7] http://www.people.fas.harvard.edu/~plam/teaching/methods/grid/grid_print.pdf
[8] Gibbs sampling
[9] Coursera
[10] Kernel trick
[11] Doing Bayesian Data Analysis
[12] Amazon.com: Probability Theory: The Logic of Science (9780521592710): E. T. Jaynes, G. Larry Bretthorst: Books
[13] Metropolis–Hastings algorithm
Artigos semelhantes
- Quais são os novos tópicos de pesquisa sobre Gestão de Qualidade de Software?
- Quais são os bons tópicos de pesquisa sobre as Filipinas?
- Quais são as melhores perguntas de entrevista para avaliar um pesquisador de aprendizagem de máquinas?
- O que é um conjunto de dados de treinamento & conjunto de dados de teste na aprendizagem de máquinas? Quais são as regras para selecioná-los?