Aprendizagem por reforço
Predefinição:Short description

Aprendizado ou apredizagem por reforço (AR) é uma área interdisciplinar de aprendizado de máquina e controle ótimo que se preocupa com a forma como um agente inteligente deve tomar ações em um ambiente dinâmico para maximizar um sinal de recompensa. É um dos três paradigmas básicos de aprendizado de máquina, juntamente com o aprendizado supervisionado e o aprendizado não supervisionado.
O Q-learning, em sua forma mais simples, armazena dados em tabelas. Essa abordagem se torna inviável à medida que o número de estados/ações aumenta (por exemplo, se o espaço de estados ou o espaço de ações fosse contínuo), pois a probabilidade do agente visitar um estado específico e executar uma ação específica diminui. O aprendizado por reforço difere do aprendizado supervisionado por não precisar que pares de entrada-saída rotulados sejam apresentados e por não precisar que ações subótimas sejam explicitamente corrigidas. Em vez disso, o foco está em encontrar um equilíbrio entre a exploração (de território desconhecido) e a exploração (do conhecimento atual) com o objetivo de maximizar a recompensa cumulativa (cujo feedback pode ser incompleto ou atrasado).[1]
O ambiente é normalmente declarado na forma de um processo de decisão de Markov (PDM), já que muitos algoritmos de aprendizagem por reforço usam técnicas de programação dinâmica.[2] A principal diferença entre os métodos clássicos de programação dinâmica e os algoritmos de aprendizagem por reforço é que estes últimos não pressupõem o conhecimento de um modelo matemático exato do processo de decisão de Markov e têm como alvo grandes PDMs onde os métodos exatos se tornam inviáveis.[3]
Princípios
Devido à sua generalidade, o aprendizado por reforço é estudado em muitas disciplinas, como teoria dos jogos, teoria de controle, pesquisa operacional, teoria da informação, otimização baseada em simulação, sistemas multiagente, inteligência de enxame e estatística. Na pesquisa operacional e na literatura de controle, o AR é chamado de programação dinâmica aproximada ou programação neuro-dinâmica. Os problemas de interesse em AR também são estudados na teoria de controle ótimo, que se preocupa principalmente com a existência e caracterização de soluções ótimas e algoritmos para seu cálculo exato, e menos com aprendizado ou aproximação (particularmente na ausência de um modelo matemático do ambiente).
O aprendizado por reforço básico é modelado como um processo de decisão de Markov:
- Um conjunto de estados do ambiente e do agente (o espaço de estados), ;
- Um conjunto de ações (o espaço de ações), , do agente;
- , a probabilidade de transição (no tempo ) de estado para estado sob a ação .
- , a recompensa imediata após a transição de para sob a ação .
O objetivo do aprendizado por reforço é levar o agente a aprender uma política ótima (ou próxima do ótimo) que maximize a função de recompensa ou outro sinal de reforço fornecido pelo usuário, acumulado a partir de recompensas imediatas. Isso é semelhante a processos que parecem ocorrer na psicologia animal. Por exemplo, cérebros biológicos são programados para interpretar sinais como dor e fome como reforços negativos e interpretar prazer e consumo de alimentos como reforços positivos. Em algumas circunstâncias, animais aprendem a adotar comportamentos que otimizam essas recompensas, sugerindo que animais são capazes de aprendizado por reforço.[4][5]
Um agente básico de aprendizado por reforço interage com seu ambiente em passos de tempo discretos. A cada passo de tempo Predefinição:Mvar, o agente recebe o estado atual e a recompensa . Em seguida, escolhe uma ação dentre as ações disponíveis, que então é enviada ao ambiente. O ambiente passa para um novo estado e a recompensa associada à transição é determinada. O objetivo de um agente de aprendizado por reforço é aprender uma política:
,
que maximize a recompensa acumulada esperada.
Formular o problema como um processo de decisão de Markov pressupõe que o agente observa diretamente o estado atual do ambiente; nesse caso, diz-se que o problema tem observabilidade completa. Se o agente só tem acesso a um subconjunto de estados ou se os estados observados são corrompidos por ruído, o agente tem observabilidade parcial, e formalmente o problema deve ser definido como um processo de decisão de Markov parcialmente observável. Em ambos os casos, o conjunto de ações disponíveis ao agente pode ser restringido. Por exemplo, o estado de um saldo bancário pode ser restrito a ser positivo; se o valor atual do estado é 3 e a transição de estado tenta reduzir o valor em 4, essa transição não será permitida.
Quando o desempenho do agente é comparado ao de um agente que atua de modo ótimo, a diferença de desempenho resulta no conceito de arrependimento (regret). Para agir de forma quase ótima, o agente deve raciocinar sobre as consequências de longo prazo de suas ações (isto é, maximizar recompensas futuras), embora a recompensa imediata associada possa ser negativa.
Assim, o aprendizado por reforço é particularmente adequado para problemas que envolvem a troca entre recompensas de longo e curto prazo. Ele já foi aplicado com sucesso a diversos problemas, incluindo armazenamento de energia,[6] controle de robôs,[7] geradores fotovoltaicos,[8] backgammon, damas,Predefinição:Sfn Go (AlphaGo) e sistemas de direção autônoma.[9]
Dois elementos tornam o aprendizado por reforço poderoso: o uso de amostras para otimizar desempenho e o uso de aproximação de função para lidar com ambientes grandes. Graças a esses dois componentes, o AR pode ser usado em ambientes grandes nas seguintes situações:
- Um modelo do ambiente é conhecido, mas não se dispõe de uma solução analítica;
- Somente um modelo de simulação do ambiente é fornecido (assunto de otimização baseada em simulação);[10]
- A única forma de coletar informações sobre o ambiente é interagindo com ele.
Os dois primeiros problemas poderiam ser considerados problemas de planejamento (já que algum tipo de modelo está disponível), enquanto o último poderia ser considerado realmente um problema de aprendizado. Entretanto, o aprendizado por reforço converte ambos os problemas de planejamento em problemas de aprendizado de máquina.
Exploração
A troca entre exploração e exploração foi estudada principalmente através do problema multi-armed bandit e para processos de decisão de Markov com espaço de estados finito em Burnetas e Katehakis (1997).[11]
O aprendizado por reforço exige mecanismos de exploração inteligentes; selecionar ações aleatoriamente, sem referência a uma distribuição de probabilidade estimada, apresenta baixo desempenho. O caso de processos de decisão de Markov finitos (pequenos) é relativamente bem compreendido. Entretanto, devido à falta de algoritmos que escalem bem com o número de estados (ou que escalem para problemas com espaço de estados infinito), métodos simples de exploração são os mais práticos.
Um desses métodos é -ganancioso (\varepsilon-greedy), onde é um parâmetro que controla a quantidade de exploração vs. exploração. Com probabilidade , escolhe-se a exploração, e o agente escolhe a ação que acredita ter o melhor efeito de longo prazo (desempates entre ações são escolhidos uniformemente ao acaso). Por outro lado, com probabilidade , a exploração é escolhida, e a ação é selecionada uniformemente ao acaso. Normalmente, é um parâmetro fixo, mas pode ser ajustado de acordo com um cronograma (levando o agente a explorar cada vez menos) ou adaptado com base em heurísticas.[12]
Algoritmos para aprendizado de controle
Mesmo desconsiderando a questão da exploração e assumindo que o estado é observável (assumido daqui em diante), o problema ainda é usar a experiência passada para descobrir quais ações levam a maiores recompensas acumuladas.
Critério de optimalidade
Política
A seleção de ação do agente é modelada como um mapeamento chamado política:
O mapa de política fornece a probabilidade de realizar a ação ao estar no estado .[13]Predefinição:Rp Também existem políticas determinísticas , para as quais denota a ação que deve ser executada no estado .
Função de valor de estado
A função de valor de estado é definida como o retorno descontado esperado a partir do estado , ou seja, , seguindo sucessivamente a política . Em termos gerais, a função de valor estima "o quão bom" é estar em um estado dado.[13]Predefinição:Rp
onde a variável aleatória denota o retorno descontado, definido como a soma de recompensas futuras descontadas:
onde é a recompensa pela transição do estado para , e é a taxa de desconto. é menor que 1, de modo que recompensas distantes no futuro têm peso menor do que recompensas imediatas.
O algoritmo deve encontrar uma política que maximize o retorno descontado esperado. A partir da teoria de processos de decisão de Markov, sabe-se que, sem perda de generalidade, a busca pode ser restringida ao conjunto de políticas chamadas estacionárias. Uma política é estacionária se a distribuição de ações retornada por ela depende apenas do último estado visitado (considerado o histórico de observações do agente). A busca pode ser ainda mais restringida a políticas determinísticas estacionárias. Uma política estacionária determinística seleciona ações de forma determinística com base no estado atual. Como toda política desse tipo pode ser identificada com um mapeamento do conjunto de estados para o conjunto de ações, nenhuma generalidade é perdida ao restringir a busca a esses mapeamentos.
Força bruta
A abordagem de força bruta envolve dois passos:
- Para cada política possível, amostrar retornos enquanto a segue
- Escolher a política com o maior retorno descontado esperado
Um problema é que o número de políticas pode ser muito grande, ou mesmo infinito. Outro é que a variância dos retornos pode ser grande, exigindo muitas amostras para estimar precisamente o retorno descontado de cada política.
Esses problemas podem ser amenizados se assumirmos alguma estrutura e permitirmos que as amostras geradas a partir de uma política influenciem as estimativas feitas para outras. As duas abordagens principais para alcançar isso são estimação de função de valor e busca direta por política.
Função de valor
Predefinição:See also Abordagens baseadas em função de valor tentam encontrar uma política que maximize o retorno descontado, mantendo um conjunto de estimativas de retornos descontados esperados para alguma política (geralmente a "atual" [on-policy] ou a ótima [off-policy]).
Esses métodos se baseiam na teoria de processos de decisão de Markov, em que a otimalidade é definida de maneira mais forte do que a definição acima: Uma política é ótima se atinge o melhor retorno descontado esperado a partir de qualquer estado inicial (isto é, distribuições iniciais não influenciam essa definição). Novamente, uma política ótima sempre pode ser encontrada entre as políticas estacionárias.
Para definir a otimalidade formalmente, define-se o valor de estado de uma política por
onde representa o retorno descontado associado a seguir a partir do estado inicial . Definindo como o valor de estado máximo possível de , onde pode mudar,
Uma política que atinge esses valores de estado ótimos em cada estado é chamada ótima. Claramente, uma política ótima nesse sentido também é ótima no sentido de que maximiza o retorno descontado esperado, pois , em que é um estado amostrado aleatoriamente da distribuição de estados iniciais (de modo que ).
Embora valores de estado sejam suficientes para definir a otimalidade, é útil definir valores de ação. Dado um estado , uma ação e uma política , o valor de ação do par sob é definido por
onde agora representa o retorno descontado associado a tomar primeiro a ação no estado e então seguir dali em diante.
A teoria de processos de decisão de Markov afirma que, se é uma política ótima, podemos agir de forma ideal (tomar a ação ótima) escolhendo a ação de com o maior valor de ação em cada estado . A função de valor de ação dessa política ótima () é chamada de função de valor de ação ótima e geralmente denotada por . Em resumo, conhecer a função de valor de ação ótima basta para saber como agir de forma ótima.
Assumindo conhecimento completo do processo de decisão de Markov, as duas abordagens básicas para calcular a função de valor de ação ótima são iteração de valor e iteração de política. Ambos os algoritmos calculam uma sequência de funções () que converge para . Calcular essas funções envolve computar expectativas em todo o espaço de estados, o que é impraticável para a maioria dos processos de decisão de Markov (finitos, mas grandes). Em métodos de aprendizado por reforço, as expectativas são aproximadas por médias de amostras, e usam-se técnicas de aproximação de função para lidar com a necessidade de representar funções de valor em espaços grandes de estado-ação.
Métodos de Monte Carlo
Métodos de Monte Carlo[14] são usados para resolver problemas de aprendizado por reforço por meio de médias de amostras de retornos. Diferentemente de métodos que exigem conhecimento completo da dinâmica do ambiente, os métodos de Monte Carlo dependem apenas de experiência real ou simulada — sequências de estados, ações e recompensas obtidas da interação com um ambiente. Isso os torna aplicáveis em situações em que a dinâmica completa é desconhecida. Aprender a partir de experiência real não requer conhecimento prévio do ambiente e ainda pode levar a comportamento ótimo. Ao usar experiência simulada, só é necessário um modelo capaz de gerar transições de amostra, em vez de especificar completamente as probabilidades de transição, como exigido por métodos de programação dinâmica.
Métodos de Monte Carlo se aplicam a tarefas episódicas, em que a experiência é dividida em episódios que terminam eventualmente. Atualizações da política e da função de valor ocorrem somente após a conclusão de um episódio, tornando esses métodos incrementais em nível de episódio, mas não passo a passo (online). O termo "Monte Carlo" em geral se refere a qualquer método envolvendo amostragem aleatória; contudo, neste contexto, refere-se especificamente a métodos que computam médias a partir de retornos completos, em vez de retornos parciais.
Eles funcionam de forma semelhante aos algoritmos para bandits, em que retornos são promediados para cada par estado-ação. A diferença crucial é que ações tomadas em um estado afetam os retornos de estados subsequentes no mesmo episódio, tornando o problema não-estacionário. Para lidar com essa não-estacionaridade, métodos de Monte Carlo usam a estrutura de general policy iteration (GPI). Enquanto a programação dinâmica calcula funções de valor tendo conhecimento completo do MDP, métodos de Monte Carlo aprendem essas funções por meio de retornos de amostra. As funções de valor e políticas interagem de maneira semelhante à da programação dinâmica para alcançar otimalidade, primeiro resolvendo o problema de predição e depois estendendo para melhoria de política e controle, tudo baseado em experiência amostrada.[13]
Métodos de diferença temporal
O primeiro problema é corrigido permitindo que o procedimento mude a política (em alguns ou todos os estados) antes que os valores se estabilizem. Isso pode ser problemático, pois pode impedir a convergência. A maioria dos algoritmos atuais faz isso, dando origem à classe de algoritmos de generalized policy iteration. Muitos métodos ator-crítico pertencem a essa categoria.
O segundo problema pode ser corrigido permitindo que trajetórias contribuam para qualquer par estado-ação nelas. Isso também pode ajudar em certa medida com o terceiro problema, embora uma solução melhor quando os retornos têm alta variância seja o uso de métodos de temporal difference (TD) de Sutton, que se baseiam na recursiva equação de Bellman.[15]Predefinição:Sfn O cálculo em métodos TD pode ser incremental (quando, após cada transição, a memória é atualizada e a transição descartada) ou em lotes (quando as transições são agrupadas e as estimativas são computadas uma vez com base no lote). Métodos em lotes, como o método de mínimos quadrados em diferença temporal,[16] podem usar melhor as informações das amostras, enquanto métodos incrementais são a única escolha quando métodos em lotes são inviáveis devido ao alto custo computacional ou de memória. Alguns métodos tentam combinar ambas as abordagens. Métodos baseados em diferenças temporais também superam o quarto problema.
Outro problema específico de TD vem de sua dependência na equação de Bellman recursiva. A maioria dos métodos TD tem um parâmetro () que pode interpolar continuamente entre métodos de Monte Carlo que não dependem das equações de Bellman e os métodos TD básicos que dependem totalmente delas. Isso pode ser eficaz para atenuar esse problema.
Métodos de aproximação de função
Para lidar com o quinto problema, são usados métodos de aproximação de função. A aproximação linear de função começa com um mapeamento que atribui um vetor de dimensão finita a cada par estado-ação. Então, os valores de ação de um par são obtidos combinando linearmente os componentes de com certos pesos :
Os algoritmos, então, ajustam esses pesos, em vez de ajustar os valores associados a cada par estado-ação. Métodos baseados em ideias de estatística não paramétrica (que podem ser vistos como construindo suas próprias características) foram explorados.
A iteração de valor também pode ser usada como ponto de partida, dando origem ao Q-learning e suas muitas variantes.[17] Incluindo métodos de Deep Q-learning, quando uma rede neural é usada para representar Q, com várias aplicações em problemas de busca estocástica.[18]
O problema de usar valores de ação é que podem exigir estimativas altamente precisas de valores de ação concorrentes, o que pode ser difícil de obter quando os retornos são ruidosos, embora esse problema seja mitigado até certo ponto por métodos de diferença temporal. Usar o chamado método de aproximação de função compatível compromete a generalidade e a eficiência.
Busca direta por política
Uma abordagem alternativa é buscar diretamente (em algum subconjunto) no espaço de políticas, caso em que o problema se torna um caso de otimização estocástica. Há duas abordagens disponíveis: métodos baseados em gradiente e métodos sem gradiente.
Métodos baseados em gradiente (policy gradient methods) começam com um mapeamento de um espaço (de parâmetros) de dimensão finita para o espaço de políticas: dado o vetor de parâmetros , seja a política associada a . Definindo a função de desempenho por , sob condições suaves essa função será diferenciável como função do vetor . Se o gradiente de fosse conhecido, poderíamos usar ascenso de gradiente. Como não se dispõe de uma expressão analítica para o gradiente, apenas uma estimativa ruidosa está disponível. Essa estimativa pode ser construída de várias maneiras, dando origem a algoritmos como o método REINFORCE de Williams[19] (conhecido como método de razão de verossimilhança na literatura de otimização baseada em simulação).[20]
Uma grande classe de métodos evita depender de informações de gradiente. Isso inclui simulated annealing, busca por entropia cruzada ou métodos de computação evolucionária. Muitos métodos sem gradiente podem, em teoria e no limite, alcançar um ótimo global.
Métodos de busca por política podem convergir lentamente se os dados forem ruidosos. Por exemplo, isso ocorre em problemas episódicos quando as trajetórias são longas e a variância dos retornos é grande. Métodos baseados em função de valor que dependem de diferenças temporais podem ajudar nesse caso. Nos últimos anos, métodos ator-crítico foram propostos e tiveram bom desempenho em vários problemas.[21]
Métodos de busca por política têm sido usados no contexto de robótica.[22] Muitos métodos de busca por política podem ficar presos em ótimos locais (pois se baseiam em busca local).
Algoritmos baseados em modelo
Por fim, todos os métodos acima podem ser combinados com algoritmos que primeiro aprendem um modelo do processo de decisão de Markov, ou seja, a probabilidade de cada próximo estado, dada uma ação tomada a partir de um estado existente. Por exemplo, o algoritmo Dyna aprende um modelo a partir da experiência e o utiliza para fornecer mais transições modeladas para uma função de valor, além das transições reais.[23] Em alguns casos, isso pode ser estendido para uso de modelos não paramétricos, como quando as transições são simplesmente armazenadas e "reexecutadas" para o algoritmo de aprendizado.[24]
Métodos baseados em modelo podem ser mais intensivos computacionalmente do que abordagens sem modelo, e sua utilidade pode ser limitada pelo grau em que o processo de decisão de Markov pode ser aprendido.[25]
Existem outras formas de usar modelos além de atualizar uma função de valor.[26] Por exemplo, em controle preditivo baseado em modelo (MPC), o modelo é usado para ajustar o comportamento diretamente.
Teoria
Tanto o comportamento assintótico quanto o comportamento de amostra finita da maioria dos algoritmos são bem compreendidos. Existem algoritmos com bom desempenho online demonstrável (lidando com o problema de exploração).
A exploração eficiente em processos de decisão de Markov é apresentada em Burnetas e Katehakis (1997).[11] Limites de desempenho em tempo finito também apareceram para muitos algoritmos, mas espera-se que sejam pouco precisos, sendo necessário mais trabalho para compreender melhor as vantagens e limitações relativas.
Para algoritmos incrementais, questões de convergência assintótica foram resolvidas. Algoritmos baseados em diferenças temporais convergem sob um conjunto mais amplo de condições do que era possível antes (por exemplo, quando usados com aproximação de função arbitrária e suave).
Pesquisa
Tópicos de pesquisa incluem:
- arquitetura ator-crítico[27]
- arquitetura ator-crítico-cenário[28]
- métodos adaptativos que funcionem com poucos (ou nenhuns) parâmetros em um grande número de condições
- detecção de bugs em projetos de software[29]
- aprendizado contínuo
- combinações com estruturas baseadas em lógica[30]
- exploração em processos de decisão de Markov grandes
- feedback humano[31]
- interação entre aprendizado implícito e explícito na aquisição de habilidades
- motivação intrínseca que diferencia comportamentos de busca de informação (curiosidade) de comportamentos orientados por metas dependentes de tarefas
- avaliações empíricas em grande escala
- espaços de ação grandes (ou contínuos)
- aprendizado por reforço modular e hierárquico[32]
- aprendizado por reforço multiagente/distribuído é um tópico de interesse. As aplicações estão se expandindo.[33]
- controle centrado em ocupante
- otimização de recursos de computação[34][35][36]
- informação parcial (por exemplo, usando representação de estado preditivo)
- função de recompensa baseada em maximizar informação nova[37][38][39]
- planejamento baseado em amostragem (por exemplo, baseado em busca em árvore de Monte Carlo).
- negociação de títulos[40]
- transferência de aprendizado[41]
- aprendizagem TD modelando aprendizado baseado em dopamina no cérebro. Projeções dopaminérgicas da substantia nigra para o gânglio basal funcionam como o sinal de erro de predição.
- métodos de função de valor e busca por política
Comparação de algoritmos principais
A tabela a seguir lista os algoritmos principais para aprender uma política, dependendo de vários critérios:
- O algoritmo pode ser on-policy (realiza atualizações de política usando trajetórias amostradas via a política atual) (cf. Seção 5.4, p. 100 em [42]) ou off-policy.
- O espaço de ações pode ser discreto (por exemplo: "subir", "esquerda", "direita", "descer", "ficar parado") ou contínuo (por exemplo, mover o braço em determinado ângulo).
- O espaço de estados pode ser discreto (por exemplo, o agente pode estar numa célula de uma grade) ou contínuo (por exemplo, o agente pode estar em determinada posição no plano).
| Algoritmo | Descrição | Política | Espaço de ação | Espaço de estado | Operador |
|---|---|---|---|---|---|
| Monte Carlo | Every visit to Monte Carlo | Either | Discreto | Discreto | Médias de amostras de valores de estado ou de ação |
| TD learning | State–action–reward–state | Off-policy | Discreto | Discreto | Valor de estado |
| Q-learning | State–action–reward–state | Off-policy | Discreto | Discreto | Valor de ação |
| SARSA | State–action–reward–state–action | On-policy | Discreto | Discreto | Valor de ação |
| DQN | Deep Q Network | Off-policy | Discreto | Contínuo | Valor de ação |
| DDPG | Deep Deterministic Policy Gradient | Off-policy | Contínuo | Contínuo | Valor de ação |
| A3C | Asynchronous Advantage Actor-Critic Algorithm | On-policy | Discreto | Contínuo | Vantagem (=valor de ação - valor de estado) |
| TRPO | Trust Region Policy Optimization | On-policy | Contínuo ou Discreto | Contínuo | Vantagem |
| PPO | Proximal Policy Optimization | On-policy | Contínuo ou Discreto | Contínuo | Vantagem |
| TD3 | Twin Delayed Deep Deterministic Policy Gradient | Off-policy | Contínuo | Contínuo | Valor de ação |
| SAC | Soft Actor-Critic | Off-policy | Contínuo | Contínuo | Vantagem |
| DSAC[43][44][45] | Distributional Soft Actor Critic | Off-policy | Contínuo | Contínuo | Distribuição de valor de ação |
Aprendizado por reforço associativo
Tarefas de aprendizado por reforço associativo combinam elementos de tarefas de autômatos de aprendizado estocástico e tarefas de classificação em aprendizado supervisionado. Em tarefas de aprendizado por reforço associativo, o sistema de aprendizado interage em loop fechado com seu ambiente.[46]
Aprendizado por reforço profundo
Essa abordagem estende o aprendizado por reforço usando uma rede neural profunda e sem projetar explicitamente o espaço de estados.[47] O trabalho sobre aprender jogos de ATARI pelo Google DeepMind aumentou a atenção em aprendizado por reforço profundo ou aprendizado por reforço de ponta a ponta.[48]
Aprendizado por reforço profundo adversário
Aprendizado por reforço profundo adversário é uma área de pesquisa ativa em aprendizado por reforço que se concentra em vulnerabilidades de políticas aprendidas. Nessa área, alguns estudos iniciais mostraram que políticas de aprendizado por reforço são suscetíveis a manipulações adversárias imperceptíveis.[49][50][51] Embora alguns métodos tenham sido propostos para superar essas vulnerabilidades, em estudos mais recentes foi demonstrado que essas soluções propostas ainda estão longe de representar adequadamente as vulnerabilidades das políticas de aprendizado por reforço profundo.[52]
Aprendizado por reforço fuzzy
Ao introduzir inferência fuzzy no aprendizado por reforço,[53] aproximar a função de valor estado-ação com regras fuzzy em espaço contínuo se torna possível. A forma IF - THEN das regras fuzzy torna essa abordagem adequada para expressar resultados em uma forma próxima à linguagem natural. Estender o FRL com Interpolação de Regras Fuzzy[54] permite o uso de bases de regras fuzzy esparsas de tamanho reduzido para enfatizar regras cardinais (valores de estado-ação mais importantes).
Aprendizado por reforço inverso
Em aprendizado por reforço inverso (IRL), nenhuma função de recompensa é dada. Em vez disso, a função de recompensa é inferida a partir de um comportamento observado de um especialista. A ideia é imitar o comportamento observado, que muitas vezes é ótimo ou próximo do ótimo.[55] Um paradigma IRL popular é chamado máximo de entropia (MaxEnt IRL).[56] O MaxEnt IRL estima os parâmetros de um modelo linear da função de recompensa maximizando a entropia da distribuição de probabilidade de trajetórias observadas, sujeita a restrições relacionadas ao ajuste das contagens de características esperadas. Recentemente, foi mostrado que o MaxEnt IRL é um caso particular de uma estrutura mais geral chamada random utility inverse reinforcement learning (RU-IRL).[57] RU-IRL baseia-se na teoria da utilidade aleatória e em processos de decisão de Markov. Enquanto abordagens anteriores de IRL presumem que o comportamento aleatório aparente de um agente observado se deve a ele seguir uma política aleatória, o RU-IRL presume que o agente observado segue uma política determinística, mas a aleatoriedade no comportamento observado se deve ao fato de um observador ter acesso apenas parcial às características que o agente observado utiliza na tomada de decisão. A função de utilidade é modelada como uma variável aleatória para explicar a ignorância do observador a respeito das características que o agente observado realmente considera em sua função de utilidade.
Aprendizado por reforço multiobjetivo
Aprendizado por reforço multiobjetivo (MORL) é uma forma de aprendizado por reforço que envolve alternativas em conflito. É distinta de otimização multiobjetivo pelo fato de lidar com agentes atuando em ambientes.[58][59]
Aprendizado por reforço seguro
Aprendizado por reforço seguro (safe reinforcement learning, SRL) pode ser definido como o processo de aprendizagem de políticas que maximizem a esperança do retorno em problemas nos quais é importante garantir desempenho razoável do sistema e/ou respeitar restrições de segurança durante o processo de aprendizagem e/ou implantação.[60] Uma abordagem alternativa é o aprendizado por reforço avesso a risco, em que, em vez do retorno esperado, otimiza-se uma medida de risco do retorno, como o valor em risco condicional (CVaR).[61] Além de mitigar risco, o objetivo CVaR aumenta a robustez a incertezas de modelo.[62][63] No entanto, a otimização de CVaR em AR avesso a risco requer cuidado especial para evitar viés de gradiente[64] e “cegueira ao sucesso”.[65]
Aprendizado por auto-reforço
Aprendizado por auto-reforço (ou self-learning) é um paradigma de aprendizagem que não utiliza o conceito de recompensa imediata após a transição de para com ação . Ele não usa reforço externo, apenas o auto-reforço interno do agente. O auto-reforço interno é fornecido por um mecanismo de sentimentos e emoções. No processo de aprendizagem, as emoções são retropropagadas por um mecanismo de reforço secundário. A equação de aprendizado não inclui a recompensa imediata, apenas a avaliação do estado.
O algoritmo de auto-reforço atualiza uma matriz de memória de modo que, em cada iteração, executa a seguinte rotina de aprendizado de máquina:
- Na situação , executa a ação .
- Recebe uma situação consequente .
- Calcula a avaliação do estado , indicando quão bom é estar na situação consequente .
- Atualiza a memória cruzada .
As condições iniciais da memória são fornecidas como entrada pelo ambiente genético. É um sistema com apenas uma entrada (situação) e apenas uma saída (ação ou comportamento).
O auto-reforço (self-learning) foi introduzido em 1982 juntamente com uma rede neural capaz de aprendizado por auto-reforço, chamada Crossbar Adaptive Array (CAA).[66][67] A CAA computa, de forma cruzada, tanto decisões sobre ações quanto emoções (sentimentos) sobre estados consequentes. O sistema é conduzido pela interação entre cognição e emoção.[68]
Comparação estatística de algoritmos de aprendizado por reforço
Comparar algoritmos de AR de maneira eficiente é essencial para pesquisa, implantação e monitoramento de sistemas de AR. Para comparar algoritmos diferentes em um determinado ambiente, pode-se treinar um agente para cada algoritmo. Como o desempenho é sensível a detalhes de implementação, todos os algoritmos devem ser implementados o mais próximo possível uns dos outros.[69] Após o treinamento, os agentes podem ser executados em uma amostra de episódios de teste, e suas pontuações (retornos) podem ser comparadas. Como episódios costumam ser assumidos como i.i.d, métodos estatísticos padrão podem ser usados para teste de hipóteses, como Teste t e teste de permutação.[70] Isso exige acumular todas as recompensas dentro de um episódio em um único número — o retorno episódico. Contudo, isso causa perda de informação, pois diferentes passos de tempo são agregados, possivelmente com diferentes níveis de ruído. Sempre que o nível de ruído varia ao longo do episódio, o poder estatístico pode melhorar significativamente, ponderando as recompensas de acordo com seu nível de ruído estimado.[71]
Ver também
- Aprendizado ativo
- Aprendizado de estágio
- Aprendizado dirigido por erro
- Métodos sem modelo (AR)
- Aprendizado por reforço multiagente
- Controle ótimo
- Q-learning
- Aprendizado por reforço a partir de feedback humano
- SARSA
- Aprendizado por diferença temporal
Referências
Leitura adicional
- Predefinição:Cite journal
- Predefinição:Cite journal
- Predefinição:Cite book
- Predefinição:Cite book
- Predefinição:Cite journal
- Predefinição:Cite book
- Predefinição:Cite book
- Predefinição:Cite journal
- Predefinição:Cite book
- Predefinição:Cite conference
Ligações externas
- Dissecting Reinforcement Learning Série de postagens em blog sobre aprendizado por reforço com código em Python
- A (Long) Peek into Reinforcement Learning
Predefinição:Controle de autoridade Predefinição:Portal3
- ↑ Predefinição:Citar periódico
- ↑ Predefinição:Citar livro
- ↑ Predefinição:Citar livro
- ↑ Predefinição:Cite book
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite arXiv
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite book
- ↑ 11,0 11,1 Predefinição:Citation
- ↑ Predefinição:Citation
- ↑ 13,0 13,1 13,2 Predefinição:Cite web
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite thesis
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite thesis
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite conference
- ↑ Predefinição:Cite conference
- ↑ Predefinição:Cite web
- ↑ Predefinição:Cite book
- ↑ Predefinição:Cite conference
- ↑ Predefinição:Cite conference
- ↑ Predefinição:Citation
- ↑ Predefinição:Cite conference
- ↑ Predefinição:Cite journal
- ↑ Erro de citação: Etiqueta
<ref>inválida; não foi fornecido texto para as refs de nomeLi-20232 - ↑ Predefinição:Cite web
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite arXiv
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite web
- ↑ Predefinição:Cite book
- ↑ Predefinição:Cite web
- ↑ Predefinição:Cite web
- ↑ Predefinição:Cite book
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite book
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite book
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite book
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite book
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite book
- ↑ Predefinição:Cite book
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite book
- ↑ Predefinição:Cite book
- ↑ Predefinição:Cite book
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite journal,
- ↑ Predefinição:Cite book
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite web
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite journal
- ↑ Bozinovski, S. (1982). "A self-learning system using secondary reinforcement". In Trappl, Robert (ed.). Cybernetics and Systems Research: Proceedings of the Sixth European Meeting on Cybernetics and Systems Research. North-Holland. pp. 397–402. ISBN 978-0-444-86488-8
- ↑ Bozinovski S. (1995) "Neuro genetic agents and structural theory of self-reinforcement learning systems". CMPSCI Technical Report 95-107, University of Massachusetts at Amherst [1]
- ↑ Bozinovski, S. (2014) "Modeling mechanisms of cognition-emotion interaction in artificial neural networks, since 1981." Procedia Computer Science p. 255–263
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite journal
- ↑ Predefinição:Cite journal