Aprendizado Profundo: Princípios e Uso

January 28, 2018 | Author: Anonymous | Category: N/A
Share Embed


Short Description

Download Aprendizado Profundo: Princípios e Uso...

Description

Aprendizado Profundo: Princípios e Uso Rafael S. Calsaverini Nº 94 Março de 2016

Desafios das Empresas Face à Lei Anticorrupção Franklin Mendes Thame

16 O Aumento da Alocação de Capital em Risco Operacional e suas Implicações em Instituições Financeiras Locais Marcelo Petroni Caldas | Oswaldo Pelaes Filho | Frederico Turolla

23

Positive Prepare sua empresa para extrair o máximo de benefícios



Saiba como explorar todo o potencial dessa nova realidade



Conceda mais crédito com menos riscos

 

Aperfeiçoe sua gestão de clientes



Minimize prejuízos causados por fraudes e inadimplência

dos dados positivos com a ajuda da Serasa Experian. Positive-se! Contrate agora mesmo a Consultoria Serasa Experian em Cadastro Positivo e rentabilize suas decisões de negócios.

Para saber mais, acesse serasaexperian.com.br/cadastropositivo ou ligue para 3004 7728

Aumente o retorno das suas ações de cobrança

+

++

3

06 Aprendizado Profundo: Princípios e Uso Rafael S. Calsaverini

Este artigo de revisão apresenta o conceito de Aprendizado Profundo (Deep Learning) e alguns de seus resultados recentes. Algoritmos de Aprendizado Profundo permitem o aprendizado de representações vetoriais de dados cuja natureza é de difícil tratamento matemático (imagens, texto, som, etc.), em diferentes níveis de abstração. No artigo foi apresentada além de uma curta revisão da literatura de Aprendizado Profundo, os princípios teóricos fundamentais e uma visão sobre o uso dessa tecnologia nas áreas de pesquisa do DataLabs da Serasa Experian.

16 Desafios das Empresas Face à Lei Anticorrupção Franklin Mendes Thame

A Lei Anticorrupção brasileira, ao estabelecer a responsabilização objetiva, no âmbito civil e administrativo, de empresas que praticam atos lesivos contra a administração pública, vem preencher importante lacuna no ordenamento jurídico do Brasil ao levar os corruptores à punição. Assim, para as empresas é um chamado à reflexão e à ação de forma a se prevenirem de punições por atos ilícitos junto ao setor público. A Lei 12.846/2013 visa combater a impunidade quando dos negócios com o setor público, notadamente para segmentos econômicos de atuação com maior susceptibilidade às práticas de corrupção.

23 O Aumento da Alocação de Capital em Risco Operacional e suas Implicações em Instituições Financeiras Locais Marcelo Petroni Caldas Oswaldo Pelaes Filho Frederico Turolla

O artigo explorou os impactos da mudança de alocação de capital de risco operacional, em estudo pelo Comitê de Basileia, e o respectivo impacto nos bancos locais, ou seja Brasil. Os estudos realizados demonstram que o impacto é razoável, pois o aumento pode ocorrer em até 3 vezes comparado ao volume de alocação atual. Esse impacto, significativo, afeta a macroeconomia através de menor oferta de crédito e o consequente impacto nas empresas e famílias. Portanto, é necessário que se alinhe essa nova carga de capital à realidade do ciclo econômico que se presencia. Ou, ainda, que se proponha uma implantação pari passu com objetivo de suavizar os impactos relevantes que essa nova regra pode causar a economia local e regional.

4

Palavra do Editor Nesta primeira edição de 2016 apresentamos três artigos de grande atualidade visando informar, esclarecer e orientar especialistas do meio econômico e financeiro sobre novas técnicas e seu emprego. Referem-se à: Lei Anticorrupção, Alocação de Capital em Risco Operacional e Aprendizado Profundo. Nosso artigo de capa destaca o trabalho do Cientista de Dados Rafael S. Calsaverini sobre Aprendizado Profundo informando que melhorias tecnológicas permitiram o crescimento da capacidade de armazenamento e processamento de dados, resultando na melhoria dos negócios e na criação de novas oportunidades. Paralelamente aos novos recursos computacionais, surgiram algoritmos e técnicas de modelagem capazes de reconhecer padrões cada vez mais complexos. Esses algoritmos e técnicas derivaram de uma série de campos de pesquisa em diversas áreas - Estatística Computacional, Ciência da Computação, Otimização, Engenharia de Controle, entre outros - que se amalgamaram em um campo denominado Aprendizado de Máquina. Assim, o Aprendizado de Máquina é o campo da Ciência que estuda o desenvolvimento de algoritmos computacionais capazes de aprender a respeito de um conjunto de dados para então fazer previsões. Esses algoritmos, empregados em aplicações computacionais passam a ser capazes de tomar decisões sobre seu ambiente por meio de padrões disponibilizados pelos dados em substituição a regras pré-determinadas em um programa estático. Calsaverini esclarece que existe uma tênue e esparsa linha de separação entre Aprendizado de Máquina e Estatística Computacional, e uma tendência em agrupar esses dois aspectos, além de algumas outras técnicas provenientes da Ciência da Computação, em uma nova área denominada Ciência de Dados. Uma aproximação seria dizer que Estatística Computacional é a área que se preocupa em obter algoritmos eficientes para o uso de modelos eminentemente estatísticos em sua natureza, enquanto Aprendizado de Máquina pode ter um leque mais amplo de modelos baseados em otimização (Compressed Sensing, Máquinas de Vetores de Suporte, Redes Neurais, etc.), ou mesmo modelos algorítmicos em sua natureza (Árvores de Decisão). Porém essa distinção se torna cada vez mais tênue quando modelos algorítmicos e de otimização adquirem uma interpretação estatística e modelos tipicamente computacionais são desenvolvidos com uma clara intuição estatística. Franklin Mendes Thame apresenta, oportunamente, um trabalho sobre a Lei Anticorrupção 12.846/2013 cujo objetivo é combater a impunidade por ocasião de negócios com o setor público quando se evidencia a prática de corrupção. O autor informa que o Brasil perde a assustadora quantia de R$ 50 bilhões a 80 bilhões todos os anos com a corrupção. A corrupção passa a ser o principal problema do país, pois arruína a confiança dos agentes econômicos, impede investimentos, desestabiliza a economia, diminui a arrecadação de impostos e subtrai direitos fundamentais de todos os brasileiros. “Ao estabelecer a responsabilização objetiva, no âmbito civil e administrativo, de empresas que praticam atos lesivos contra a administração pública, a Lei Anticorrupção vem preencher importante lacuna no ordenamento jurídico do Brasil ao levar os corruptores à punição. Assim, para as empresas é um chamado à reflexão e à ação de forma a se prevenirem de punições por atos ilícitos junto ao setor público”, destaca Thame. Segundo ele, a Lei anticorrupção induzirá as organizações a uma nova forma de fazer negócios com o setor público, que exigirá a adoção de boas práticas de governança corporativa, com transparência em todos os níveis hierárquicos, rígido cumprimento da conformidade legal, segregação de funções, políticas de terceirizações, programa de definição de riscos específicos e controles internos e auditorias. As ações e estratégias de anticorrupção nas empresas deve ser transversal,

5

alcançar todos os níveis hierárquicos e todas as áreas administrativas. As ações de enfretamento à corrupção se pautam na ética, na justa concorrência, na eficiência, no mérito e se inserem nas melhores práticas de governança corporativa como: gerenciamento integrado de riscos; estrutura de compliance; desenvolvimento do capital humano e gestão de fornecedores e parceiros. A política anticorrupção deve ser parte integrante da política estratégica das empresas, a fim de preservar seu maior valor, isto é, a reputação. O Aumento da Alocação de Capital em Risco Operacional e suas implicações em instituições financeiras foi o tema abordado por Marcelo Petroni Caldas, Oswaldo Pelaes Filho e Frederico Turolla que analisaram os impactos sobre as instituições financeiras brasileiras com as mudanças da alocação do Capital nos estudos do Comitê de Basileia. Os estudos vieram demonstrar que esse impacto, aliás bastante significativo, afetará a macroeconomia, pois reduzirá a oferta de crédito. Os autores do artigo apontam a necessidade de alinhamento dessa nova carga de capital à realidade do atual ciclo econômico, ou que se proponha uma implantação pari passu com objetivo de suavizar os impactos relevantes que essa nova regra pode causar à economia local e regional. Eles acreditam que os próximos movimentos, para que se alcance a noção exata dos impactos, que abrangerão inclusive Instituições Financeiras de médio e pequeno porte, devem referir-se à repetição do estudo a partir do momento que a regra estiver efetivamente validada e divulgada. Os consultores lembram que a crise de 2008 desencadeou movimento mundial em direção a uma nova forma de regulação de Instituições Financeiras (IFs), em função de preocupações quanto à solvência das mesmas. No entanto, o risco operacional foi pouco abordado nesse contexto de mudanças globais, pois o foco era melhorar a qualidade do capital e aprofundar os requerimentos para o risco de liquidez. Estudos e reflexões o Comitê de Basileia resultaram em nova proposta de alocação de capital para o risco operacional para tornar o risco operacional mais sensitivo à medida que considera novos aspectos no cálculo do requerimento de capital, tais como volumes e negócios realizados entre outros itens. Eles dizem que os estudos indicam que o impacto tende a ser considerável e a indústria bancária vem se movimentando para expor aos reguladores e ao Comitê as características particulares do processo. Destacam que o tema é recente e a literatura é escassa sob o enfoque de International Business, e abordá-lo contribui para o entendimento dos conceitos de internacionalização de Instituições Financeiras, regulação home host, distância psíquica, gestão de risco e controles internos do Sistema Financeiro. TECNOLOGIA DE CRÉDITO

ANO XIII

Publicação trimestral da Serasa Experian

Nº 94

ISSN 2177-6032

Presidente - Brasil

Capa, Editoração Eletrônica e Ilustração

José Luiz Rossi

Gerson Lezak

Presidentes/Superintendentes de Unidades de Negócios

Tradução

Mariana Pinheiro, Steven Wagner e Vander Nagata

Allan Hastings e Exman Fucks Traduções

Diretores

Correspondência Serasa Experian - Comunicação & Branding Alameda dos Quinimuras, 187 - CEP 04068-900 - São Paulo - SP

Amador Rodriguez, Guilherme Cavalieri, Lisias Lauretti, Manzar Feres, Paulo Melo, Sergio Fernandes e Valdemir Bertolo Editora Responsável

www.serasaexperian.com.br [email protected]

Rosina I. M. D’Angina (MTb 8251)

Os conceitos emitidos em artigos assinados são de responsabilidade de seus autores, não expressando, necessariamente, o ponto de vista da Serasa Experian, nem do Conselho Editorial. É proibida a reprodução total ou parcial dos artigos desta publicação.

6

Aprendizado Profundo: Princípios e Uso

Rafael S. Calsaverini

7

Sumário Recentes desenvolvimentos no uso de redes neurais e modelos profundos em Aprendizado de Máquina resultaram em uma rápida sucessão de resultados que suplantam o estado-da-arte em diversos desafios de modelagem em áreas distintas, como reconhecimento de objetos, reconhecimento de caracteres manuscritos, reconhecimento de faces, análise de sentimento, dentre outros. Seguiu-se uma rápida adoção desses métodos para solução de tarefas que envolvem conjuntos de dados de alta complexidade onde a representação numérica, necessária para os algoritmos tradicionais, é um desafio. Algoritmos de Aprendizado Profundo permitem o aprendizado de representações vetoriais de dados cuja natureza é de difícil tratamento matemático (imagens, texto, som, etc.), em diferentes níveis de abstração. Este artigo de revisão apresenta o conceito de Aprendizado Profundo (Deep Learning) (LeCun, Bengio, and Hinton 2015) e alguns de seus resultados recentes.

1. Introdução A explosão na abundância de dados nas últimas décadas, combinada com melhorias tecnológicas que proporcionam uma crescente capacidade para armazenamento e processamento desses dados, permitiram, nas últimas décadas, o surgimento de novos negócios e da transformação de antigos negócios através do uso desses dados para diversos propósitos. Junto com essa abundância de dados e recursos computacionais, surgem novos algoritmos e técnicas de modelagem capazes de reconhecer padrões mais e mais complexos. Esses algoritmos e técnicas são derivados de uma série de campos de pesquisa em diversas áreas - Estatística Computacional, Ciência da Computação, Otimização, Engenharia de Controle, dentre outros - que se têm amalgamado em um campo denominado Aprendizado de Máquina. Aprendizado de Máquina é o campo da Ciência que estuda o desenvolvimento de algoritmos computacionais capazes de aprender a respeito de um conjunto de dados para então fazer previsões. Esses algoritmos serão embarcados em aplicações computacionais que devem ser capazes de tomar decisões sobre seu ambiente através de padrões aprendidos dos dados ao invés de regras pré-determinadas em um programa estático. Existe uma tênue e esparsa linha de separação entre Aprendizado de Máquina e Estatística Computacional, e há uma tendência a agrupar esses dois aspectos, além de algumas outras técnicas provenientes da Ciência da Computação, em uma nova área denominada Ciência de Dados (Michael I. Jordan 2014). Uma aproximação seria dizer que Estatística Computacional é a área que se preocupa em obter algoritmos eficientes para o uso de modelos eminentemente estatísticos em sua natureza, enquanto Aprendizado de Máquina pode ter um leque mais amplo de modelos que

8

podem ser baseados em otimização (como Compressed Sensing, Máquinas de Vetores de Suporte, Redes Neurais, etc.), ou mesmo modelos algorítmicos em sua natureza (como Árvores de Decisão), entretanto essa distinção se torna cada vez mais tênue quando modelos algorítmicos e de otimização adquirem uma interpretação estatística e modelos tipicamente computacionais são desenvolvidos com uma clara intuição estatística (MacKay 1992; Michael I Jordan 1994; G. E. Hinton, Osindero, and Teh 2006; Mezard and Montanari 2009; Koller and Friedman 2009; Neal 2012; Kingma et al. 2014; Gal and Ghahramani 2015; Gal 2015). Um tópico de particular interesse em Aprendizado de Máquina desde meados de 2006 tem sido o uso de Redes Neurais, bem como outros algoritmos que se prestem ao empilhamento de camadas, que vem sido descrito como Aprendizado Profundo (Deep Learning). Esse tipo de algoritmo têm estabelecido recordes de performance estado-da-arte em diversos tipos de tarefas de inteligência artificial que lidam com conjuntos grandes de dados complexos e revelado técnicas e resultados úteis em uma grande gama de problemas - desde reconhecimento de caracteres manuscritos a tratamento de dados de Aceleradores de Partículas (Baldi, Sadowski, and Whiteson 2014), passando por descoberta de fármacos e análise de biomoléculas (Unterthiner et al. 2015). Neste artigo pretendemos apresentar uma curta revisão da literatura de Aprendizado Profundo, os princípios teóricos fundamentais e uma visão sobre o uso dessa tecnologia nas áreas de pesquisa do DataLabs da Serasa Experian.

2. Aprendizado de Máquina e Aprendizado Profundo Os algoritmos de aprendizado de máquina tipicamente são treinados, ou seja, seus parâmetros operacionais são ajustados a um conjunto de dados específico - para realizar tarefas específicas. Em algumas dessas tarefas o objetivo é, dado um conjunto de exemplos, ou seja, pares conhecidos de Características e Alvos, obter um algoritmo que para um nova população de Características, estime os novos Alvos para cada caso. Esse tipo de tarefa é conhecido como Aprendizado Supervisionado. Um exemplo típico de aprendizado supervisionado é uma tarefa de regressão, por exemplo, ou uma tarefa de classificação. Em outros tipos de tarefa não existe um alvo claro a ser previsto, mas uma tarefa de reconhecimento de padrões a ser realizada. Essas tarefas são chamadas de Aprendizado Não-Supervisionado. Um típico exemplo é o agrupamento1 de pontos de um conjunto de dados em grupos naturais ou a descoberta de uma árvore de hierarquias entre os pontos (agrupamento hierárquico), ou a modelagem da distribuição de um conjunto de dados. A abordagem tradicional do Aprendizado de Máquina ao tratar um novo conjunto de dados para processamento é a engenharia e extração de características2: em um novo conjunto de dados, especialistas e modelistas devem inicialmente desenhar e extrair dos dados crus, de forma manual ou semianual, quais Características3 seriam bons preditores da variável alvo ou dos padrões que o algoritmo deve aprender. Essas características podem ser simples combinações dos dados crus, como por exemplo composições polinomiais das variáveis independentes, ou podem ser

9

processos dispendiosos, como por exemplo extrair de um grande corpus de texto expressões que pareçam indicar nomes de entidades (empresas, pessoas, países, etc.) de forma automatizada. Depois de desenhados e extraídos, esses vetores de características são alimentados em algoritmos genéricos capazes de realizar a tarefa designada: florestas aleatórias, máquinas de vetores de suporte, entre outros. Tipicamente essas tarefas são dispendiosas e difíceis, e pode-se levar anos para descobrir um conjunto extremamente especializado de boas características para tarefas especificas, como por exemplo os SIFT features (Lowe 1999) ou Viola-Jones Haar-like descriptors (Viola and Jones 2004) para reconhecimento de objetos em Visão Computacional. Desde aproximadamente meados da década de 2000, (LeCun, Bengio, and Hinton 2015), grupos de pesquisa começaram a obter resultados bastante expressivos usando uma abordagem diferente: o Aprendizado de Características ou Aprendizado de Representações4. O princípio fundamental dessa abordagem é trocar o longo tempo de engenharia e extração de características por algoritmos capazes de aprender características a partir dos dados brutos simultaneamente à solução da tarefa de aprendizado usando essas características. Por exemplo, em uma tarefa de reconhecimento de caracteres manuscritos, o algoritmo deveria ser capaz de aprender que composições dos bytes originais da imagem são importantes para descobrir que caractere ela representa durante o mesmo processo em que está aprendendo a prever o caractere. Idealmente não deveria haver uma diferença entre os dois processos: nos dois processos os parâmetros de um modelo estão sendo ajustados para obter um resultado desejado (minimizar uma função custo, por exemplo), portanto eles deveriam ser parte do mesmo processo. Ao fim do processo o algoritmo aprendeu não apenas a resolver uma tarefa relacionada àqueles dados, como também uma representação dos dados em um vetor de características que podem ser úteis para múltiplas tarefas. Tipicamente as características adequadas para realização de uma tarefa complexa são transformações altamente não-lineares dos dados crus. Modelar funções altamente não-lineares é uma tarefa difícil, porém factível usando modelos profundos. Um modelo profundo é um modelo em que várias instâncias menores de um modelo - denominadas camadas - são empilhadas de forma que a saída de uma seja a entrada da próxima. Cada uma dessas camadas é capaz de aprender um mapa não-linear simples da saída da camada anterior. Ao empilhar camadas que aprendem mapas não-lineares, o modelo é capaz de compor conceitos cada vez mais complexos a cada nova camada, produzindo eventualmente mapas cada vez mais complexos das variáveis de entrada. O típico exemplo dessa capacidade de modelos profundo são modelos de detecção de caracteres manuscritos. Em um modelo com muitas camadas, treinado para identificar qual caractere está representado em uma imagem, a primeira camada que toma a imagem de um caractere manuscrito como entrada pode aprender, por exemplo, a detectar linhas horizontais, linhas verticais, e outras primitivas geométricas simples. A segunda camada, usando como entrada o sinal de saída da

10

primeira camada, compõe esses sinais geométricos primitivos, sinais mais complexos: linhas oblíquas, ângulos, curvas suaves. A terceira camada compõe esse sinal em detectores mais sofisticados, capazes de identificar círculos, curvas mais acentuadas e, finalmente, a última camada compõe esses sinais geométricos mais sofisticados em detectores do formato completo do caractere. Esse processo de construção de sinais cada vez mais complexos e não lineares nas camadas mais profundos do modelo é que dá aos modelos de Aprendizado Profundo a capacidade de aprender mapas altamente não-lineares e resolver tarefas complexas: o modelo está aprendendo, a partir dos dados mais brutos, quais são as características mais preditivas do alvo, sem que haja necessidade de uma engenharia manual de características.

3. Redes Neurais A principal classe de modelos que têm sido usados em arquiteturas profundas são as redes neurais artificiais. Uma rede neural artificial é um conjunto de pequenas unidades, tipicamente chamadas, em analogia com sistemas biológicos, de neurônios ou perceptrons. Essas unidades recebem entradas e produzem uma única saída que consiste em uma transformação linear das entradas seguida da aplicação de um mapa não-linear, chamado função de ativação. Cada unidade pode ser agrupada em camadas em uma rede feed forward, e funcionar como um modelo profundo. Redes neurais não são algoritmos recentes. Desde a sua primeira inspiração no estudo de estruturas biológicas na década de 1940 (McCulloch and Pitts 1943; Hebb 2005), os primeiros modelos de aprendizado supervisionado como o Perceptron (Rosenblatt 1957) e a criação dos algoritmos de treinamento que permitem tratar redes profundas, o algoritmo de Backpropagation (Williams and Hinton 1986; Parker 1982; Werbos 1974), passaram-se décadas de desenvolvimento e, apesar do relativo sucesso em algumas áreas, houve um período de dormência da pesquisa nessa área durante o fim dos anos de 1990 e início dos 2000. Redes neurais apresentavam muitos desafios teóricos e de engenharia à época e sua aplicação era mais custosa que a de outros algoritmos que obtiveram mais sucesso à época, como Máquinas de Vetores de Suporte e Florestas Aleatórias. Entretanto, em meados da década de 2000 (LeCun, Bengio, and Hinton 2015), houve uma conjunção de condições que permitiu o renascimento das redes neurais

11

como um algoritmo capaz de atingir e elevar o estado da arte em diversas tarefas de modelagem. Além de uma série de descobertas de novas técnicas e algoritmos para treinar redes neurais, os principais novos recursos que permitiram esse renascimento foram a disponibilidade de conjuntos de dados muito maiores para treinamento, e o progresso de hardware computacional específico para processamento vetorial, capaz de acelerar em muitas ordens de grandeza o tempo necessário para treinar uma rede neural. Hoje é possível, em um computador pessoal de capacidade mediana, usando uma GPU (graphical processing unit), tipicamente utilizada para processamento gráfico, treinar em minutos uma rede neural capaz de reconhecer dígitos manuscritos com acurácia superior à de operadores humanos (>99%). Isso permitiu um renascimento do uso de redes neurais em diversos tipos de tarefas de modelagem diferentes, iniciada em campos como Visão Computacional e Reconhecimento de Voz, mas se espalhando por outras áreas da ciência e da engenharia. Hoje grande parte dos resultados estado-da-arte em diversas tarefas computacionais são obtidos por sistemas baseados em redes neurais.

4. Aprendizado não-supervisionado Redes neurais são naturalmente orientadas para tarefas supervisionadas, em que existe um conjunto de dados com entradas e saídas bem definidas. Entretanto a pesquisa de técnicas não-supervisionadas usando redes neurais profundas apresenta um promissor horizonte de algoritmos que podem ser usados no tratamento de dados não-estruturados, particularmente no aprendizado de características para análise de textos, dados sequenciais, séries temporais, imagens e outros tipos de dados sem uma estrutura tabular clara ou em que a engenharia e extração de características para algoritmos tradicionais é desafiadora. Os algoritmos típicos de treinamento de redes neurais, no entanto, estão voltados ao aprendizado supervisionado e a solução de problemas não-supervisionados usando redes neurais ainda é uma área jovem, ativa e promissora de pesquisa. Duas estratégias se mostram bastante promissoras nessa direção: (1) criar tarefas supervisionadas que, ao serem resolvidas, levam a rede neural a aprender representações vetoriais dos dados de interesse, gerando então insumos para outros tipos de algoritmos (como agrupamento, por exemplo), e (2) criar modelos gerativos que tentam aprender uma distribuição de probabilidades dos dados e geram, no processo, conhecimento sobre os dados - por exemplo vetores de fatores latentes, classificações e agrupamentos, etc. Ambas as estratégias são calcadas no conceito de aprendizado de representações: cada camada de uma rede neural profunda aprende a detectar ou representar conceitos cada vez mais abstratos do conjunto original de dados. Eventualmente as próprias representações intermediárias criadas pela rede neural a partir dos dados para resolver uma tarefa específica contém informação sumarizada sobre os próprios dados que pode ser útil em uma análise ou investigação exploratória, ou mesmo em outras tarefas relacionadas (Yosinski et al. 2014).

12

Um exemplo de rede neural que resolve uma tarefa supervisionada auxiliar para aprender representações não-supervisionadas para conjuntos de dados de interesse são os Autoencoders (Bengio 2009). Um autoencoder é uma rede neural composta de duas sub-redes: um encoder, cuja tarefa é gerar uma representação de baixa dimensionalidade a partir de um objeto complexo, como uma imagem ou texto; e um decoder, cuja tarefa é recuperar o objeto original a partir da representação gerada pelo encoder. O objetivo de treinar um autoencoder é, ao forçar uma compressão da informação em uma representação de baixa dimensionalidade, obter um vetor de características que representam uma imagem ou texto, por exemplo, que resume a informação contida nesse objeto complexo e permite análises exploratórias ou mesmo o uso em outras tarefas de classificação, agrupamento ou regressão. Dessa forma um autoencoder pode ser treinado, por exemplo, para criar representações vetoriais de textos, que depois serão usadas para treinar uma análise de sentimento usando outro algoritmo -- uma Regressão Logística ou Máquina de Vetores de Suporte, por exemplo. Modelos gerativos com redes neurais profundas são um desenvolvimento mais recente e uma ativa área de pesquisa. Um modelo gerativo é um modelo que tenta capturar o processo que teria gerado os dados observados, modelando sua distribuição de probabilidades. Esse é tipo de modelagem já bastante conhecida em Aprendizado de Máquina, com modelos como Mistura de Gaussianas para agrupamento, ou Alocação de Dirichlet Latente para análise de tópicos. Entretanto, modelos probabilísticos gerativos muito complexos são tipicamente intratáveis usando técnicas analíticas e dependem do uso de aproximações variacionais ou simulações de Monte Carlo para serem ajustados. Recentemente alguns progressos foram obtidos delegando a complexidade desses modelos probabilísticos para redes neurais e desenvolvendo técnicas que se aproveitam de algoritmos como Backpropagation para resolver parte do problema. Um exemplo são as Redes Gerativas Adversárias (Goodfellow et al. 2014; Makhzani et al. 2015; Denton et al. 2015) em que é possível criar uma rede neural que aprende tão bem a distribuição de probabilidades de um conjunto de imagens, capaz de gerar novas imagens a partir dessa distribuição que são, praticamente, indistinguíveis visualmente de imagens verdadeiras. As representações intermediárias, aprendidas por esses modelos gerativos, frequentemente contém bastante informação sobre os objetos originais, sendo possível, por exemplo, usa-las para ex-

13

trair informações de estilo de uma imagem (Makhzani et al. 2015) e aplicar sobre outra (Gatys, Ecker, and Bethge 2015), ou recriar a mesma imagem em outro ponto de vista (Radford, Metz, and Chintala 2015).

5. Conclusões Redes neurais profundas têm-se mostrado uma ferramenta extremamente valiosa na modelagem de grandes conjuntos de dados com estrutura complexa, particularmente dados textuais e de imagem. Esse tipo de arquitetura profunda é capaz de produzir modelos end-to-end, sem a necessidade de uma dispendiosa engenharia de características inicial. Além disso, as representações aprendidas pelas redes neurais guardam informação do conjunto de dados original e podem servir de insumo para outros algoritmos e análises. Dada à riqueza de conjuntos de dados textuais de difícil exploração usando técnicas tradicionais, técnicas não-supervisionadas usando redes neurais podem gerar novas oportunidades ao permitir o uso de fontes de dados mais cruas, eliminando um processo de engenharia de variáveis incerto e dispendioso.

6. Notas: 1 Em inglês, Clustering. 2 Do inglês, Feature Engineering. 3 Em inglês, Features. Tipicamente no jargão de Aprendizado de Máquina, as variáveis de controle, covariáveis, variáveis explicativas ou variáveis independentes são chamadas Características: trata-se do mesmo conceito. São as variáveis que serão ingeridas pelo modelo para prever uma variável dependente ou alvo.

Autor

4 Em inglês, Feature Learning e Representation Learning, respectivamente.

Rafael S. Calsaverini Rafael S. Calsaverini é doutor em Física pela universidade de São Paulo, tendo trabalhado em tópicos de modelagem estatística e aprendizado de máquina. Desde 2012 atua na indústria privada como Cientista de Dados, desenvolvendo aplicações baseadas em modelos matemáticos e aprendizado de máquina. Atualmente compõe o time da unidade brasileira do Experian Datalabs na Serasa Experian. E-mail: [email protected]

Referências

14

BALDI Pierre; SADOWSKI, Peter; WHITESON ,Daniel. 2014. “Searching for Exotic Particles in High-Energy Physics with Deep Learning.” Nature Communications 5. Nature Publishing Group. DENTON, Emily L; SOUMITH, Chintala; FERGUS, Rob, and others. 2015. “Deep Generative Image Models Using a Laplacian Pyramid of Adversarial Networks.” In Advances in Neural Information Processing Systems, 1486–94. GATYS, Leon A; ECKER, Alexander, S; BETHGE, Matthias. 2015. “A Neural Algorithm of Artistic Style.” ArXiv Preprint ArXiv:1508.06576. GOODFELLOW, Ian; POUGET-ABADIE, Jean; MEHDI, Mirza; BING, Xu; WARDE-FARLEY, David; OZAIR, Sherjil; COURVILLE, Aaron; BENGIO, Yoshua. 2014. “Generative Adversarial Nets.” In Advances in Neural Information Processing Systems, 2672–80. HEBB, Donald. 2005. The Organization of Behavior: a Neuropsychological Theory. Psychology Press. HINTON, Geoffrey E; OSINDERO ,Simon; YEE-WHYE, Teh. 2006. “A Fast Learning Algorithm for Deep Belief Nets.” Neural Computation 18 (7). MIT Press: 1527–54. JORDAN, Michael I. 1994. “A Statistical Approach to Decision Tree Modeling.” In Proceedings of the Seventh Annual Conference on Computational Learning Theory, 13–20. ACM. JORDAN, Michael I. 2014. “AMA: Michael I. Jordan.” Reddit. /r/MachineLearning/. https://www. reddit.com/r/MachineLearning/comments/2fxi6v/ama_michael_i_jordan/ckelmtt?context=3. KINGMA, Diederik P.; MOHAMED, Shakir; REZENDE, Danilo J; WELLING, Max 2014. “SemiSupervised Learning with Deep Generative Models.” In Advances in Neural Information Processing Systems, 3581–89. KOLLER, Daphne; NIR, Friedman,. 2009. Probabilistic Graphical Models: Principles and Techniques. MIT press. LECUN, Yann; BENGIO, Yoshu; HINTON, Geoffrey. 2015. “Deep Learning.” Nature 521 (7553). Nature Publishing Group: 436–44. LOWE, David G. 1999. “Object Recognition from Local Scale-Invariant Features.” In Computer Vision, 1999. the Proceedings of the Seventh IEEE International Conference on, 2:1150–57. IEEE. MACKAY, David J. C. 1992. “A Practical Bayesian Framework for Backpropagation Networks.” Neural Computation 4 (3). MIT Press: 448–72. MAKHZANI, Alireza; SHLENS, Jonathon, JAITLY, Navdeep; GOODFELLOW, Ian. 2015. “Adversarial Autoencoders.” ArXiv Preprint ArXiv:1511.05644.

Referências

15

MCCULLOCH, Warren S.; PITTS, Walter. 1943. “A Logical Calculus of the Ideas Immanent in Nervous Activity.” The Bulletin of Mathematical Biophysics 5 (4). Springer: 115–33. MEZARD, Marc; MONTANARI, Andrea. 2009. Information, Physics, and Computation. Oxford University Press. NEAL, Radford M. 2012. Bayesian Learning for Neural Networks. Vol. 118. Springer Science & Business Media. PARKER, David B. 1982. “Learning Logic. Invention Report S81-64, File 1, Office of Technology Licensing.” October, Stanford University. RADFORD, Alec; METZ, Luke; CHINTALA, Soumith. 2015. “Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks.” ArXiv Preprint ArXiv:1511.06434. ROSENBLATT, Frank. 1957. The Perceptron, a Perceiving and Recognizing Automaton Project Para. Cornell Aeronautical Laboratory. RUMELHARD, David E; HINTON, Geoffrey E.; WILLIAMS, Ronald J. 1986. “Learning Representations by Back-Propagating Errors.” Nature, 323–533. UNTERTHINER, Thomas; MAYER, Andreas; KLAMBAUER, Günter; HOCHEITER Sepp. 2015. “Toxicity Prediction Using Deep Learning.” ArXiv Preprint ArXiv:1503.01445. VIOLA, Paul; JONES, Michael J. 2004. “Robust Real-Time Face Detection.” International Journal of Computer Vision 57 (2). Springer: 137–54. WERBOS, Paul. 1974. “Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences.” YARIN, Gal. 2015. “What My Deep Model Doesn’t Know...” Blog. Yarin Gal. http://mlg.eng.cam. ac.uk/yarin/blog_3d801aa532c1ce.html. YARIN, Gal; GHAHRAMANI, Zoubin. 2015. “Dropout as a Bayesian Approximation: Insights and Applications.” In Deep Learning Workshop, ICML. YOSHUA, Bengio. 2009. “Learning Deep Architectures for AI.” Foundations and Trends in Machine Learning 2 (1). Now Publishers Inc.: 1–127. YOSINSKI, Jason; CLUNE, Jeff; BENGIO, Yoshua; LIPSON, Hod. 2014. “How Transferable Are Features in Deep Neural Networks?” In Advances in Neural Information Processing Systems, 3320–28.

16

Desafios das Empresas Face à Lei Anticorrupção

Franklin Mendes Thame

17

Sumário A Lei Anticorrupção - Lei 12.846/2013- veio aprimorar o marco regulatório do País no combate a corrupção. Essa regulação constitui instrumento essencial para corrigir falhas de mercado, moldar a conduta, mudar o padrão de relacionamento, aperfeiçoar as práticas de prevenção e controlar o comportamento das empresas. A lei visa combater a impunidade quando dos negócios com o setor público, notadamente para segmentos econômicos de atuação com maior susceptibilidade às práticas de corrupção.

1. Introdução A Lei Anticorrupção 12.846/2013, ao estabelecer a responsabilização objetiva, no âmbito civil e administrativo, de empresas que praticam atos lesivos contra a administração pública, veio preencher importante lacuna no ordenamento jurídico do Brasil ao levar os corruptores à punição. Assim, para as empresas é um chamado à reflexão e à ação de forma a se prevenirem de punições por atos ilícitos junto ao setor público. A atuação das empresas que se relacionam com o setor público e com reguladores está exigindo, face à possiblidade de serem enquadradas nessa Lei, maiores cuidados quando: • participam de licitações e de concessões; • solicitam licenciamentos, autorizações, outorgas e alvarás; • contratam parceiros, terceiros e fornecedores; • solicitam empréstimos subsidiados junto às instituições financeiras oficiais; e • requerem autorizações para comercializar novos produtos e serviços, entre outras ações. A conscientização, pelas empresas, sobre a necessidade de se precaverem de sanções decorrentes de delitos nos relacionamentos com o setor público implica uma mudança de cultura no enfrentamento das práticas que visam obter vantagens, quando atuam como fornecedoras e prestadoras de serviços a esse setor. Assim, há necessidade de as empresas estruturarem uma governança especifica para o gerenciamento integrado de riscos, adotando políticas de compliance, haja vista que determinadas condutas, justificadas em função do processo burocrático dos órgãos públicos (excesso de leis, regulações, exigências de alvarás e de licenciamentos), podem ser consideradas passíveis de enquadramento na Lei Anticorrupção.

18

As ações e estratégias de anticorrupção nas empresas deve ser transversal, alcançar todos os níveis hierárquicos e todas as áreas administrativas. As ações de enfrentamento à corrupção se pautam na ética, na justa concorrência, na eficiência, no mérito e se inserem nas melhores práticas de governança corporativa como: gerenciamento integrado de riscos; estrutura de compliance; desenvolvimento do capital humano e gestão de fornecedores e parceiros. A política anticorrupção deve ser parte integrante da política estratégica das empresas, a fim de preservar seu maior valor: a reputação.

2. Autorregulação A empresa deverá definir as políticas e as ações de autorregulação, que comprovem o seu compromisso com os princípios que norteiam a ética, atribuindo responsabilidades às áreas envolvidas sobre o gerenciamento de riscos dos possíveis impactos decorrentes das suas atividades com o setor público. O escopo e conteúdo da política de prevenção em relação a Lei Anticorrupção de uma empresa são definidos por: • porte; • natureza da sua atividade; • peculiaridades nas linhas de negócios; e • formas de atuação com o setor público. Inicialmente, a empresa deverá fazer o diagnóstico das suas ações com o setor público, desde a simples obtenção de um licenciamento ou alvará até uma complexa autorização oficial para lançamento de um novo produto. Uma vez alinhadas as ações caberá verificar os riscos, classificá-los de acordo com a sua relevância e proporcionalidade, bem como definir as áreas responsáveis. Na sequência, deverá identificar os funcionários e terceirizados (CNPJs e CPFs) envolvidos e criar uma “matriz de riscos’’, com informações sobre eles obtidas de empresas de tecnologia de informações, como a Serasa Experian; da mídia; de sites públicos que trazem informações jurídico-processuais no âmbito civil, trabalhista e criminal; e de cadastros e de listas públicas, cujos incluídos tiverem comportamentos considerados inidôneos. A empresa deverá, ainda, estabelecer os padrões de atuação prudencial e as ações que poderão evitar delitos para mitigar eventuais sanções judiciais. Os procedimentos adotados pela empresa devem possibilitar argumentos de defesa em ações judiciais, trazer conforto/segurança jurídica e demonstrar que ela foi diligente em relação aos seus negócios com o setor público. Uma importante referência é a existência de um programa de compliance que demonstre, de forma consistente, as estratégias e as ações destinadas a evitar atos passíveis de serem considerados corruptos.

19

O programa deverá possibilitar que os princípios de prevenção e precaução se materializem para enfrentar todo e qualquer ato de corrupção. As normativas internas da empresa precisam refletir a legislação anticorrupção. Ao cumpri-las, a empresa passa a considerar os fatores éticos e morais, em conjunto com os econômico-financeiros. Essas normativas farão parte da gestão integrada de riscos, que protege a empresa de riscos operacionais, de reputação, de delitos, de punições e de responsabilidade solidária, entre outros.

3. Empresa Limpa A Lei Anticorrupção, nº 12.846/2013, conhecida como a Lei da Empresa Limpa, tem, portanto, por objetivo, tratar da conduta e da punição das empresas por atos de corrupção, praticados por seus representantes diretos ou terceirizados, contra a administração pública. Esta lei pode ser aplicada contra empresas que corrompam agentes públicos com suborno e pagamento de propinas; fraudem licitações ou contratos públicos; frustrem, mediante ajuste ou combinação, o caráter competitivo de um procedimento licitatório; e obtenham benefícios por meio de atos corruptos. Trata-se de punição objetiva e, assim, a empresa poderá ser responsabilizada em casos de corrupção, independentemente da comprovação de culpa. A empresa responderá às autoridades judiciais por ato de corrupção, praticado por seus funcionários ou por empresa ou empregado terceirizado, mesmo sem o envolvimento direto por parte dos seus proprietários. Dessa forma, a empresa será punida se tiver obtido benefícios, via ato corrupto resultado inclusive da improbidade administrativa dos servidores públicos. A multa aplicada pelas autoridades judiciais poderá variar de 0,1% a 20% do faturamento bruto do último exercício anterior ao da instauração do processo administrativo ou até R$ 60 milhões de reais, quando não for possível esse cálculo. Outra punição que afetará diretamente a reputação da empresa é a publicação da sentença condenatória na mídia. A lei prevê o impedimento de novas empresas criadas por sócios de empresas inidôneas, incluídas no Cadastro Nacional de Empresas Inidôneas e Suspensas - CEIS, se em seus próprios nomes ou de maneira oculta, venham a contratar com a administração pública. Serão solidariamente responsáveis, à obrigação de paga-

20

mento de multa e reparação integral do dano causado, as sociedades controladoras, controladas, coligadas ou, no âmbito do respectivo contrato, as consorciadas. Nas hipóteses de fusão e incorporação, a responsabilidade da sucessora será restrita à obrigação de pagamento de multa e reparação integral do dano causado, até o limite do patrimônio transferido. A União, os Estados, o Distrito Federal e os Municípios e o Ministério Público, poderão ajuizar ação com vistas à aplicação das seguintes sanções às pessoas jurídicas infratoras: I. Perda dos bens, direitos ou valores; II. Suspensão ou interdição parcial de suas atividades; III. Dissolução compulsória da pessoa jurídica e IV. Proibição do recebimento de incentivos, subsídios, subvenções, doações de entidades públicas e de instituições financeiras públicas, pelo prazo de 1 a 5 anos. Conforme a Lei 12.846, artigo 7º; serão levados em consideração na aplicação das sanções: I.

Gravidade da infração;

II.

Vantagem auferida ou pretendida pelo infrator;

III. Consumação ou não da infração; IV. Grau de lesão ou perigo de lesão; V. Efeito negativo produzido pela infração; VI. Situação econômica do infrator; VII. Cooperação da pessoa jurídica para a apuração das infrações; VIII. Existência de mecanismos e procedimentos internos de integridade, auditoria e incentivo à denúncia de irregularidades e a aplicação efetiva de códigos de ética e de conduta no âmbito da pessoa jurídica; IX. Valor dos contratos mantidos pela pessoa jurídica com o órgão ou entidade pública lesados.

4. Decreto 8.420/15 O Decreto 8.420/15, que regulamenta a Lei n.º 12.846/2013 dispõe sobre a responsabilização administrativa de pessoas jurídicas pela prática de atos contra a administração pública e estabelece que um Programa de Compliance efetivo deve conter: I.

Códigos de ética e conduta;

II.

Comprometimento do alto escalão;

21

III. Treinamento de funcionários e terceiros; IV. Monitoramento e auditoria periódica; V. Canal de comunicação para orientação e denúncia; VI. Política de investigação com inclusão das ações corretivas; VII. Política de contratação de terceiros e outros mecanismos específicos para cada segmento. A área de Compliance da empresa é responsável por assegurar que as suas políticas, o código de ética, as leis e os regulamentos sejam respeitados pelos diretores, funcionários, parceiros de negócios, terceirizados e fornecedores. A existência de um Programa de Compliance na empresa será atenuante na aplicação das sanções administrativas, caso a mesma venha a ser autuada por práticas ilícitas. Muitas empresas presentes no Brasil já aderiram a essa prática, pois seguem códigos de conduta de seus países de origem onde há legislações avançadas a esse respeito: nos Estados Unidos: FCPA - Foreign Corrupt Practices Act e SOA – Sarbanes Oxley Act; e no Reino Unido: UKBA - United Kingdom -Bribery Act - Lei contra Subornos do Reino Unido.

5. Conclusão Estima-se que o Brasil perde a assustadora quantia de R$ 50 bilhões a 80 bilhões todos os anos com a corrupção. A corrupção passa a ser o principal problema do país, haja vista que arruína a confiança dos agentes econômicos, impede investimentos, desestabiliza a economia, diminui a arrecadação de impostos e subtrai direitos fundamentais de todos os brasileiros. No Congresso Nacional, atualmente existem 355 projetos de lei sobre corrupção de iniciativa de deputados e 173 de senadores, totalizando 528 proposições, assim é impossível que haja alguma espécie de corrupção que não tenha sido já contemplada nestes projetos. A Lei Anticorrupção brasileira, ao estabelecer a responsabilização objetiva, no âmbito civil e administrativo, de empresas que praticam atos lesivos contra a administração pública, vem preencher importante lacuna no ordenamento jurídico do Brasil ao levar os corruptores à punição. Assim, para as empresas é um chamado à reflexão e à ação de forma a se prevenirem de punições por atos ilícitos junto ao setor público. Nas organizações, a Lei anticorrupção induzirá uma nova forma de fazer negócios com o setor público, que exigira a adoção de boas práticas de governança corporativa, com transparência em todos os níveis hierárquicos, com rígido cumpri-

22

mento da conformidade legal, com segregação de funções, com políticas de terceirizações, com programa de definição de riscos específicos, com controles internos e auditorias. Ressalta-se a importância de Programa de Compliance, com definições de condutas que inibam fraudes, lavagem de dinheiro, trafego de influência, conflitos de interesse de funcionários, parceiros, terceirizados e fornecedores e assim possibilite que as regras de negócios com o setor público sejam mais éticas, transparentes, justas e simétricas. Ao incorporar na gestão estratégica da empresa as exigências da legislação anticorrupção, está-se condicionando que a sua atividade fique atrelada à moralidade e à legalidade. Assim, as atitudes éticas da empresa, criam valor sustentável e suas atitudes se multiplicam, e passam a influenciar toda a sociedade.

Autor

Leis e condenações que visam punir delitos por atos de corrupção, de fraude fiscal e de lavagem de dinheiro vem somar esforços para que o setor produtivo brasileiro avance no rumo da sustentabilidade.

Franklin Mendes Thame Engenheiro Agrônomo e Administrador de Empresas com especialização em agronegócios, desenvolvimento de produtos financeiros e sustentabilidade. Trabalhou 35 anos no Banco Noroeste e Banco Santander. Foi Diretor de Crédito Rural e Diretor da FEBRABAN. Atualmente é Gerente de Produtos na Serasa Experian. E-mail: [email protected]

23

O Aumento da Alocação de Capital em Risco Operacional e suas Implicações em Instituições Financeiras Locais

Marcelo Petroni Caldas Oswaldo Pelaes Filho Frederico Turolla

24

Sumário A crise de 2008 desencadeou movimento mundial em direção a uma nova forma de regulação de Instituições Financeiras (IFs), em função de preocupações quanto à solvência das mesmas. No entanto, o risco operacional foi pouco abordado nesse contexto de mudanças globais, pois o foco era melhorar a qualidade do capital e aprofundar os requerimentos para o risco de liquidez. Depois de vários estudos e reflexões o Comitê de Basileia divulgou um draft abordando nova proposta de alocação de capital para o risco operacional. A proposta busca tornar o risco operacional mais sensitivo ao risco à medida que considera novos aspectos no cálculo do requerimento de capital, tais como volumes e negócios realizados entre outros itens. Estudos indicam que o impacto tende a ser considerável e a indústria bancária vem se movimentando para expor aos reguladores e ao Comitê as idiossincrasias existentes nesse processo. Esse tema é recente e a literatura é escassa sob o enfoque de International Business, e abordá-lo contribui para o entendimento dos conceitos de internacionalização de Instituições Financeiras, regulação home host, distância psíquica, gestão de risco e controles internos do sistema financeiro. Esse artigo realizou pesquisa através de dados secundários, incluindo análise documental, com o objetivo de constatar o impacto dessas regras regulatórias sobre Instituições Financeiras locais e globais no Brasil. Concluiu que os cinco bancos pertencentes a essa análise sofrerão impactos importantes em seu capital caso não houvesse nenhuma alteração na data base da pesquisa. Diante dessa constatação a alternativa é o reforço do capital de melhor qualidade e a redução de negócios em determinados nichos de atuação.

1. Introdução O tema risco operacional é razoavelmente novo, se comparado aos riscos de crédito e mercado. Entender esse risco pressupõe conhecimento amplo das empresas quer seja financeira ou não financeira, pois ele pode ocorrer em qualquer linha de negócio de atuação. Assim, a questão não está relacionada somente a entende-lo, mas em como mensurar e como calcular uma parcela do capital que reflita adequadamente sua alocação. Desde que o risco operacional foi introduzido em Basileia II1, em 2004, essa discussão suscita debates acalorados tanto do lado dos defensores do método, quanto daqueles que são contrários e ela pouco evoluiu até a emissão de draft publicado em outubro de 2014 pelo Comitê de Basileia (Basiléia2) com intuito de modificar o modelo padronizado de cálculo de capital de risco operacional3 para torná-lo mais sensitivo ao risco.

25

Este artigo tem o objetivo de verificar o impacto que a nova regulamentação para alocação de capital emanada pelo Comitê de Basileia pode gerar na necessidade de capital das Instituições Financeiras analisadas neste estudo. Pretendeu-se abordar um conceito teórico baseado em análise dos documentos emanados pelo Comitê de Basileia e os relatórios sobre gestão de riscos divulgados pelas Instituições Financeiras e disponibilizados em seus sites onde constam os montantes de alocação de capital para risco operacional.

2. Desenvolvimento da Regulação e o Risco Operacional O primeiro acordo de capital, como se sabe, foi focado eminentemente em risco de crédito o qual é definido por: The risk that the counterparty to a transaction could default before the final settlement of the transaction’s cash flows. An economic loss would occur if the transactions or portfolio of transactions with the counterparty has a positive economic value at the time of default4. O primeiro acordo ainda disseminou um indicador conhecido por “Índice de Basileia” (BIS, 1988 International Convergence of Capital Measurement and Capital Standards, July 1988), utilizado constantemente e que representa um direcionador relevante de solvência das instituições financeiras. O objetivo era de que somente Instituições Financeiras internacionalmente ativas utilizassem essa métrica, no entanto a simplicidade da fórmula levou a uma massificação do conceito e sua consequente implantação mesmo por bancos que não possuíam atuação global. Depois da publicação do primeiro acordo, houve a publicação de uma emenda que tratou especialmente de risco de mercado , pois era um risco que estava emergindo e se fazia necessário um tratamento diferenciado. É importante definir Risco de Mercado6: The risk of losses in on and off-balance-sheet positions arising from movements in market prices. The risks subject to this requirement are: • The risks pertaining to interest rate related instruments and equities in the trading book; • Foreign exchange risk and commodities risk throughout the bank. Por fim, o Novo Acordo de Capital de Basileia (ou Basileia II) consolidou e melhorou os conceitos dos riscos de crédito e mercado e implantou o conceito do risco operacional. À época se constituiu em novidade, pois era um risco cuja existência era percebida mas que não havia sido registrada e divulgada por uma entidade supranacional, orientando como tratá-lo sob os aspectos de governança e determinação de três formas de cálculo de capital a ser alocado. Era uma revolução para aquele momento, sendo importante mencionar o conceito de Risco Operacional conforme Basileia II:

26

The risk of loss resulting from inadequate or failed internal processes, people and systems or from external events. This definition includes legal risk, but excludes strategic and reputational risk. Localmente, o conceito também foi desenvolvido sendo que o regulador brasileiro em 2006 decidiu publicar normativo, Resolução 33807, considerado best practice local e que determinou a implementação de estrutura de gerenciamento de risco operacional nas Instituições Financeiras e que possui a função de descrever conceitos, formas de registro, atribuição de responsabilidades e escopo de aplicação para as entidades autorizadas a funcionar sob supervisão do Banco Central do Brasil. Interessante destacar que somente em abril de 2008, no Brasil, foi implantada a norma que regulamenta o método de alocação de capital para risco operacional. A Circular 3383/088 estabeleceu os procedimentos para o cálculo da parcela referente ao risco operacional através de 3 métodos: Método 1. Indicador Básico

2. Padronizada Alternativa

3. Padronizada Alternativa Simplificada

Base de Cálculo Resultado Bruto, não há segregação por linhas de negócio, média dos últimos 3 anos Resultado Bruto segregado por 8 linhas de negócio, sendo que em duas linhas de negócio (comercial e varejo) se utiliza o portfolio de crédito ao invés de resultado bruto. Emprega-se a média dos últimos 3 anos Resultado Bruto segregado por 2 linhas de negócio; Utiliza-se, a média dos últimos 3 anos

Coeficiente 15% do Resultado Bruto

12% a 18% do Resultado Bruto aplicado às 8 linhas de negócio

15% e 18% do Resultado Bruto aplicado às duas linhas de negócio

Fonte: Circular 3383/08

A partir de então as Instituições Financeiras tiveram que escolher em qual método deveriam se enquadrar. Os bancos locais considerados de grande porte, conforme suas respectivas publicações, decidiram pela aplicação do método padronizado alternativo (ou em inglês: Alternative Standardized Approach – ASA). O motivo está relacionado a um menor impacto na alocação de capital, visto que em duas linhas de negócio (comercial e varejo) se utiliza um spread médio de 3,5%9 (conforme definido por Basileia II e adotado pelo Supervisor bancário brasileiro através da Circular 3383/08). Ela é bem inferior ao praticado no sistema financeiro brasileiro, conforme Relatório do Panorama de Crédito publicado pela Febraban na data base outubro/2015 que demonstra spread médio consolidado de 15,5% no período de outubro/13 a outubro/15. Vale ressaltar que no período 2010-2014 a alocação de capital média para risco operacional foi de R$ 13,8 bilhões para os cinco maiores bancos (Bradesco, Itaú, Caixa Econômica Federal, Banco do Brasil e Santander) que representa, em média, 5% do patrimônio de referência médio dessas Instituições Financeiras no mesmo período. A Circular 3383/08 foi substituída pela Circular 3640/1310 que fixou os procedimentos para cálculo da parcela dos ativos ponderados pelo risco relativa ao cálcu-

27

lo do capital requerido para o risco operacional mediante abordagem padronizada. Na verdade tratou-se de alinhamento internacional quanto ao cálculo elaborado para risco operacional, onde o valor da alocação obtida através dos conceitos já descritos nesse artigo devem ser alavancados por 11%. Enfim, independentemente do número do normativo a constatação é que os modelos padronizados não são úteis em medir risco propriamente dito, pois a lógica desses modelos é de que quanto mais se fatura maior o risco da instituição. Portanto, não se trata de algo lógico porque esse método não carrega a possibilidade de que fatores de controle e de ambiente de negócio influenciam e podem impedir que incrementos de resultado não necessariamente gerem efeitos de maior risco e, consequentemente, possíveis perdas advindas desse risco adicional em virtude de mais negócios gerados. Ressalta-se que em 2011 houve a publicação de normativo local (Circular 3647/13 ) que estabeleceu os requisitos mínimos para a utilização de abordagem avançada, baseada em modelo interno, no cálculo da parcela relativa ao risco operacional. De fato, o espírito do regulador, ao publicar os termos desse normativo, limita demasiadamente a utilização de modelo avançado pelos bancos locais. Não estabelece margem para uso parcial do modelo e nem incentivos para que se introduzam melhorias sistêmicas em paralelo à implantação do modelo ou de processos que não sejam totalmente automatizados. Esse fato se caracteriza em um ambiente perfeito e que se torna muito difícil de se implantar na totalidade de empresas complexas, que atuam em linhas variadas de negócios, como no caso brasileiro onde determinadas instituições financeiras possuem companhias seguradoras de grande porte e que estão sujeitas às questões de Solvency II (que nada mais é do que a “Basiléia das Seguradoras”), com milhões de clientes. Acredita-se que esse assunto possa ser explorado em outra linha de pesquisa, pois constitui um amplo campo de reflexão para a gestão do risco operacional. 11

4. O Advento da Crise Econômica de 2008-2009 Conforme definição obtida na edição 45 da revista de informações e debates do IPEA (Instituto de Pesquisa Econômica Aplicada) O subprime se caracterizou como hipotecas de maior risco ou de segunda linha. Com o excesso de liquidez no mercado internacional nos últimos anos, os bancos e financeiras dos Estados Unidos passaram a financiar a compra de casas a juros baixos para pessoas com histórico de crédito ruim, tendo o próprio imóvel como única garantia. Mas veio a queda nos preços dos imóveis e os bancos ficaram ameaçados de não reaver os empréstimos feitos. A crise ocorrida em 2008 decorrente do colapso dessas operações (subprime) no mercado norte americano, acarretou uma serie de reflexões sobre a questão de risco de liquidez, sistêmico e da necessidade de capital de melhor qualidade das Instituições Financeiras. Como amplamente divulgado a consequência foi uma

28

série de regulações que impactaram o mercado financeiro, a saber: Basileia III12 - A Global Regulatory Framework for more Resilient Banks and Banking Systems, Dodd Frank Wall Street Reform and Consumer Protection Act13 somente para citar as duas orientações normativas mais importantes que surgiram como resposta à crise. Esse posicionamento mundial foi dado pelo G20 que é formado pelo conjunto das 20 economias mais relevantes mundialmente. A preocupação desse grupo se estabeleceu em não permitir uma depressão econômica em escala global e consequentemente prover maior regulação sobre o sistema financeiro global. O FSB (Financial Stability Board) surge com a atribuição de coordenar a regulação global e verificar a implantação de suas políticas. Apesar de que a atenção estava totalmente voltada para esses riscos anteriormente mencionados, o risco operacional ressurgiu na discussão devido a uma certa preocupação em relação às hipotecas e, consequentemente, à alocação de capital para risco operacional. Em relação às hipotecas, pois não se sabe o quanto de fraude e falha de processo representavam como causa principal nessa questão, as baixas em empréstimos poderiam se dar por efeitos decorrentes de risco operacional. Pelo lado da alocação de capital, o sinal vermelho se acendeu para os reguladores, pois a alocação de capital pelos métodos padronizados é calculada por meio da média dos últimos 3 anos do resultado bruto. A consequência surgiu alguns anos depois da crise, constatando-se que o resultado dos bancos, em decorrência da crise, diminuiu e o reflexo imediato foi a redução do valor de capital alocado. Se Basileia já tinha por objetivo rever essa metodologia, esse fato foi o ingrediente que faltava para se iniciar o processo de proposta de mudança.

5. Ações Pós Crise Na realidade Basileia demorou certo tempo para publicar algo em resposta à crise e que fosse ao encontro das deficiências encontradas no conceito de alocação de capital para risco operacional. Após estudos de impacto que contaram com a participação das Instituições Financeiras e de diversas análises, foi publicado o documento Operational Risk – Revisions to the simpler approach14 em outubro/2014. Com esse documento Basileia adota o enfoque voltado para simplicidade e maior sensibilidade a risco e os 3 tipos de métodos de alocação deram lugar a um único método. No entanto o quesito modelo mais sensível a risco ainda se mostra devedor, pois os vetores, na maioria, permanecem os mesmos. A conclusão do documento é de que o resultado bruto (ou gross income) deve ser substituído por uma nova variável denominada BI (business indicator) com o intuito de capturar os grandes negócios bancários, a saber: juros (interest component), serviços (services component) e financeiro (financial component). Essa nova calibração visa incrementar a alocação e, consequentemente, tornar-se sensível ao risco. Vale a constatação de que países com altas taxas de juros (NIM – net interest margin) tam-

29

bém foram escopo e consideradas nesse draft emitido por Basileia, mas o tratamento a ser dado a essa situação específica ainda está em análise. Ressalta-se que eventual mudança no spread (de 3,5% para outro percentual acima desse número), considerado para efeito de cálculo da alocação de capital, constitui para os bancos brasileiros uma mudança forte na abordagem de capital e que seu impacto afeta razoavelmente os níveis de alavancagem da indústria financeira como um todo. É importante correlacionar essa questão aos impactos macroeconômicos, pois algo que afete a alocação de capital (para cima, ou seja com aumento) resultará em menos disponibilidade de crédito para o cliente e/ou consumidor final para compra de bens e serviços. Enfim, as Instituições Financeiras, após várias alterações em normas e regulamentos, têm experimentado algo cada vez mais presente no dia-a-dia dos gestores: a escassez do recurso chamado “capital”. A nova formulação da possível alocação de capital constante do draft emitido por Basileia, referente ao business indicator, considera intervalos que variam de 10% a 30% e, por consequência, incrementam a alocação de capital das instituições, principalmente se compararmos o range anterior que variava dentre 8 linhas de negócio de 12% a 18%. A aplicação da fórmula gerada é extremamente simples e visa distribuir os resultados de cada indicador de negócio nas faixas selecionadas, conforme segue no quadro demonstrativo: Coeficiente

Coeficiente por intervalo

0-100

BI (milhões de €)

10%

10%

>100 – 1.000

13%

10% - 12,7%

>1.000 – 3.000

17%

12,7% - 15,57%

>3.000 – 30.000

22%

15,57% - 21,36%

>30.000

30%

21,36% - 30%

Fonte: Operational Risk – Revisions to the simpler approaches

Portanto, aproveitando o exemplo do documento de Basileia é possível fazer uma simulação de como a distribuição ocorre dentro de uma instituição financeira em relação à nova formulação proposta por Basileia: Banco

BI

Cálculo

A

$ 80

$ 80 * 10%

Capital Alocado $8

B

$ 800

$ 100 * 10% + $ 700 * 13%

$ 101

C

$ 2.000

$ 100 * 10% + 900 * 13% + 1.000 * 17%

$ 297

Fonte: Operational Risk – Revisions to the simpler approaches

6. Análise Quantitativa A análise quantitativa procurou verificar a existência de correlação entre o Índice de Basileia (IB) e alguns indicadores selecionados para os bancos brasileiros Bradesco, Itaú, CEF – Caixa Econômica Federal, Banco do Brasil e o banco estrangeiro Santander. Os indicadores testados foram o Patrimônio Referência (PR), o Pa-

30

trimônio Referência Exigido (PRE), as parcelas de Risco Operacional (RO), Risco de Crédito (RC), Risco de Mercado (RM) e o Retorno sobre o Equity (ROE), para tanto foram levantados os dados objeto da correlação para o período de 2010 a 2014. Considerando comentários no mercado financeiro sobre a possível mudança da regra de alocação de capital para o risco operacional e o respectivo impacto que essa alteração tende a gerar, foi calculada a parcela de Risco Operacional multiplicando por 2 (ROx2) e multiplicado por 3 (ROx3), pois o impacto que o mercado estima nas instituições financeiras é de duas a três vezes o aumento na alocação de capital do risco operacional. Importante ressaltar que o Índice de Basiléia foi recalculado e (afinal decorre do ROx2) denominado IBx2 e o Índice de Basileia decorrente de ROx3 foi denominado IBx3. A tabela a seguir apresenta os dados levantados que serviram de base para o cálculo das correlações:

Tabela de Dados em R$ milhões Patrimônio Referência

PRE

PREx2

PREx3

RO

ROx2

ROx3

RC

RM

Índice de Índice de Índice de Basileia Basileia Basileia x2 x3

ROE

Fonte: Relatório de Gestão de Riscos – site dos Bancos Colunas PREx2, PREx3, ROx2 e ROx3, elaboradas pelos autores

Todos os resultados da correlação foram obtidos através da utilização da análise de dados do aplicativo Excel, sendo que inicialmente foram calculadas as correlações tomando-se por base as médias dos dados dos bancos considerados para cada ano de análise, assim os dados obtidos pela correlação entre o IB e as variáveis analisadas, no período de 2010 a 2014, gerou os seguintes resultados:

31

Resultado das Correlações Correlação

IB_2010

IB_2011

IB_2012

IB_2013

IB_2014

RO

-2%

74%

74%

26%

51%

PRE

14%

71%

52%

28%

51%

PR

-15%

80%

84%

42%

58%

RC

13%

66%

43%

25%

48%

RM

69%

15%

53%

60%

59%

ROE

7%

-21%

-41%

37%

94%

Correlação

IB2_2010

IB2_2011

IB2_2012

IB2_2013

IB2_2014

RO x2

-13%

5%

37%

65%

85%

PRE x2

-44%

-7%

9%

51%

75%

PR

-91%

-49%

47%

60%

74%

RC

-46%

-2%

-7%

49%

72%

RM

-67%

-58%

76%

22%

26%

ROE

49%

82%

-82%

12%

67%

Correlação

IB3_2010

IB3_2011

IB3_2012

IB3_2013

IB3_2014

RO x3

-13%

5%

37%

65%

85%

PRE x3

-43%

-6%

10%

52%

75%

PR

-91%

-48%

46%

60%

74%

RC

-46%

-2%

-7%

49%

72%

RM

-67%

-58%

75%

22%

26%

ROE

49%

82%

-82%

12%

67%

Fonte: Os autores

As variáveis analisadas podem ter correlações que vão de “bem fraca” a “muito forte” conforme identificado no quadro a seguir: Valor de ρ (+ ou -)

Interpretação

0,00-0,19

Uma correlação bem fraca

0,20-0.39

Uma correlação fraca

0,40-0,69

Uma correlação moderada

0,70-0,89

Uma correlação forte

0,90-1,00

Uma correlação muito forte

As conclusões da análise da correlação estão apresentadas no Quadro Resumo das Correlações Analisadas:

32

Quadro Resumo das Correlações Analisadas com o IB Ano

Muito forte

Forte

2010

Moderada RM

2011

RO, PRE, PR

RC

2012

RO, PR

PRE, RC, RM, ROE

2013

PR, RM

2014

ROE

RO, PRE, PR, RC, RM

Quadro Resumo das Correlações Analisadas com o IB2x Ano

Muito forte

2010

PR

Forte

Moderada PRE, RC, RM, ROE

2011

ROE

PR, RM

2012

RM, ROE

PR

2013

RO, PRE, PR, RC

2014

RO, PRE, PR, RC

ROE

Quadro Resumo das Correlações Analisadas com o IB3x Ano

Muito forte

2010

PR

Forte

Moderada PRE, RC, RM, ROE

2011

ROE

PR, RM

2012

RM, ROE

PR

2013

RO, PRE, PR, RC

2014

RO, PRE, PR, RC

ROE

Fonte: Os autores.

Pode-se concluir que, aparentemente, não existe uma correlação forte entre as variáveis analisadas e os índices de Basileia IB, IB2x e IB3x. A única variável que apresenta uma quantidade maior de correlações fortes é o ROE, entretanto, em alguns anos mostra uma correlação positiva e em alguns anos negativa, fazendo com que não seja identificável uma tendência entre as duas variáveis. Um dos motivos que pode acarretar essa falta de tendência, apesar da correlação forte, é a relação dos índices de Basileia com outras variáveis que também se relacionam com o ROE, as quais não estão sendo consideradas neste estudo.

7. Sugestões e Limitações da Análise Quantitativa O teste estatístico por meio de regressão não foi realizado devido à escassez de dados históricos para uma boa aderência dos dados à realidade, pois utilizou-se, neste estudo, informações após a implantação do IB3. Para próximas pesquisas, sugere-se o uso de uma base de dados mais ampla. Isto é, dados em painel

33

contemplando um número maior de observações e de variáveis o que poderá possibilitar a utilização de regressões para análise dos dados, bem como entender as correlações existentes entre as variáveis que causam efeito nos indicadores analisados.

8. Impactos do Incremento na Alocação de Capital É importante notar que outro aspecto abordado nesse estudo diz respeito ao impacto que um possível aumento da alocação de capital na parcela de risco operacional pode gerar na economia através da disponibilidade de crédito ao tomador final. Foi mencionado que mediante comentários correntes no mercado, especula-se que a nova metodologia para alocação de capital para risco operacional tende a aumentar de duas (ROx2) a três vezes (ROx3) a parcela atual. Pois bem, traçando um valor médio para esse cálculo de impacto nas 5 instituições financeiras, em 5 anos, observa-se o seguinte: Quadro 1 – todas as variáveis apresentam evolução regular conforme publicado PR médio

PRE

Índice de Basileia

R$ 418,9 bilhões

R$ 280,2 bilhões

16,42%

Quadro 2 – todas as variáveis apresentam evolução regular conforme publicado, porém para risco operacional a alocação foi multiplicada por 2 PR médio

PRE

Índice de Basileia

R$ 418,9 bilhões

R$ 280,2 bilhões

16,42%

Quadro 3 – Todas as variáveis apresentam evolução regular conforme publicado, porém para risco operacional a alocação foi multiplicada por 3 PR médio

PRE

Índice de Basileia

R$ 418,9 bilhões

R$ 280,2 bilhões

16,42%

Fonte: Os autores

A partir dessas estimativas pode-se considerar que esse possível aumento da alocação de capital para risco operacional retiraria das instituições financeiras a capacidade de gerar empréstimos da ordem de R$ 27,7 bilhões. Adicionalmente não se considerou a possibilidade de alavancagem desse montante que representa a capacidade das instituições financeiras. Talvez algo a ser considerado por Basileia e pelo supervisor local seria a implantação em etapas, considerando layers, como por exemplo: no 1º ano somente 50% do montante calculado; no 2º ano somente 70% e assim por diante até completar a totalidade da alocação. Entende-se que algo nessa direção tende a suavizar o impacto do aumento da alocação para os bancos e por consequência não prejudicaria demasiadamente o setor real da economia.

34

9. Considerações Finais O artigo explorou os impactos da mudança de alocação de capital de risco operacional, em estudo pelo Comitê de Basileia, e o respectivo impacto nos bancos locais, ou seja Brasil. Os estudos realizados demonstram que o impacto é razoável, pois o aumento pode ocorrer em até 3 vezes comparado ao volume de alocação atual. Esse impacto, significativo, afeta a macroeconomia através de menor oferta de crédito e o consequente impacto nas empresas e famílias. Portanto, é necessário que se alinhe essa nova carga de capital à realidade do ciclo econômico que se presencia. Ou, ainda, que se proponha uma implantação pari passu com objetivo de suavizar os impactos relevantes que essa nova regra pode causar à economia local e regional. Acredita-se que os próximos movimentos para que se avance no esforço de pesquisa dos impactos seja a repetição do estudo a partir do momento que a regra estiver efetivamente validada e divulgada de maneira final para que se obtenha a noção exata do impacto abrangendo, inclusive, Instituições Financeiras de médio e pequeno porte.

10. Notas: 1

Basel II: International Convergence of Capital Measurement and Capital Standards: a Revised Framework

2

O Comitê de Basiléia de Supervisão Bancária é um comitê de autoridades de Supervisão Bancária estabelecido pelos presidentes dos bancos centrais do Grupo dos Dez – G10 – em 1975. Esse comitê possui representantes seniores dos bancos centrais da Bélgica, Canadá, França, Alemanha, Itália, Japão, Luxemburgo, Holanda, Espanha, Suécia, Suíça, Reino Unido e Estados Unidos. Geralmente se reúne no Bank for International Settlements na Basileia, onde está localizada sua Secretaria permanente.

3

Operational Risk – Revisions to the simpler approaches – consultative document

4

Basel II: International Convergence of Capital Measurement and Capital Standards: a Revised Framework – page 19; footnote 16 - http://www.bis.org/publ/bcbs128.pdf

5

Amendment to the capital accord to incorporate market risk, January 1996

6

Basel II: International Convergence of Capital Measurement and Capital Standards: a Revised Framework – page 157 - http://www.bis.org/publ/bcbs128.pdf

7

Resolução 3380/06, Banco Central do Brasil http://www.bcb.gov.br/pre/normativos/busca/downloadNormativo.asp?arquivo=/Lists/Normativos/Attachments/48239/Res_3380_v3_P.pdf

8

Circular 3383/08, Banco Central do Brasil http://www.bcb.gov.br/pre/normativos/ busca/downloadNormativo.asp?arquivo=/Lists/Normativos/Attachments/47919/ Circ_3383_v3_P.pdf

35

9

Basel II: International Convergence of Capital Measurement and Capital Standards: a Revised Framework – page 146; footnote 104 - http://www.bis.org/publ/bcbs128.pdf

10 Circular 3640/13 - Estabelece os procedimentos para o cálculo da parcela dos ativos ponderados pelo risco (RWA), relativa ao cálculo do capital requerido para o risco operacional mediante abordagem padronizada (RWAOPAD) - http://www. bcb.gov.br/pre/normativos/busca/downloadNormativo.asp?arquivo=/Lists/Normativos/Attachments/48997/Circ_3640_v4_P.pdf 11 Circular 3647/13 – Estabelece requisitos mínimos para abordagem avançada de risco operacional http://www.bcb.gov.br/pre/normativos/busca/downloadNormativo.asp?arquivo=/Lists/Normativos/Attachments/48990/Circ_3647_v2_P.pdf 12 Basel III: A Global Regulatory Framework for more resilient Banks and Banking systems - http://www.bis.org/publ/bcbs189.pdf 13 Wall Street Reform and Consumer Protection Act - http://www.cftc.gov/idc/groups/ public/@swaps/documents/file/hr4173_enrolledbill.pdf

Autores

14 Operational Risk – Revisions to the simpler approach - http://www.bis.org/publ/ bcbs291.pdf

Marcelo Petroni Caldas Graduado em Administração de Empresas e em Contabilidade pela Universidade Presbiteriana Mackenzie, pós-graduado em Administração Contábil Financeira pela Faap, MBA em Gestão Financeira e Riscos pela Fipecafi –USP e mestrando em International Business pela ESPM. E-mail: [email protected]

Oswaldo Pelaes Filho Graduado em Engenharia Civil pela FESP (Faculdade de Engenharia São Paulo) e em Administração de Empresas pela Universidade Presbiteriana Mackenzie, pósgraduado em Gestão Contábil e Financeira pela FAAP, mestre em Administração pela PUC/SP e doutorando em Gestão Internacional pela ESPM. E-mail: [email protected]

Frederico Turolla Graduado em Economia pela Universidade Federal de Juiz de Fora, mestre em Economia pela Brandeis International Business School e doutor em Economia pela Fundação Getúlio Vargas (FGV). E-mail: [email protected]

Referências

36

ACHARYA, V. A Theory of Systemic Risk and Design of Prudential Bank. Journal of Financial Stability. Vol. 5, No. 3, (Sep 2009), pp. 224–255. ALLEN, F.; CARLETI, E.; GU, X. The role of baking in financial systems. In BERGER, Al.L.; MOLYNEUX, P. WILSON, J.O.S. (eds) The Oxford of Banking. Second edition. Oxford: Oxford University Press, p.27-46, 2015. AHARONY, J; SWARY I. Contagion effects of Bank Failures: Evidence from Capital Markets. The Jounal of Business. Vol. 56, No. 3(Jul., 1983), pp. 305-322. BANCO CENTRAL DO BRASIL - 50 maiores bancos e o consolidado do Sistema Financeiro Nacional.http://www4.bcb.gov.br/fis/TOP50/port/Top50P.asp BANK FOR INTERNATIONAL SETTLEMENTS. Basel Committee on Banking Supervision. International Convergence of Capital Measurement and Capital Standards: a Revised Framework. Suíça, 2005. BANK FOR INTERNATIONAL SETTLEMENTS. Sound Practices for the Management and Supervision of Operational Risk. Basiléia, 2003. BLUNDELL-WINGNALL, ATKINSON , Adrian and Paul (2012), “Deleveraging, Traditional versus Capital Markets Banking and the Urgent Need to Separate and Recapitalise G-SIFI Banks”, OECD Journal: Financial Market Trends, Vol. 2012/1. FINANCIAL STABILITY BOARD. http://www.financialstabilityboard.org/publications/r_091107c.pdf FURFINE, C. Interbank Exposures: Quantifying the Risk of Contagion. Journal of Money, Credit and Banking. Vol. 35, No. 1 (Feb. 2003), pp. 111-128. GENNAIOLI, N., SHLEIFER S.; VISHNY V. A Model of Shadow Banking. The Journal of Finance. July 2013. Global systemically important banks updated assessment methodology and the higher loss absorbency requirement. http://www.bis.org/publ/bcbs255.pdf LASTRA, R. M. Systemic risk, SIFIs and financial stability. Capital Markets: Law Journal. (2011) STERN, G. H.; FELDMAN, R. J. Too big to Fail: The hazards of banks bailouts (2004). Thematic Review on Supervisory Frameworks and Approaches for SIBs. http://www. financialstabilityboard.org/wp-content/uploads/Thematic-Review-on-Supervisory-Approachesto-SIBs.pdf

Revista Tecnologia de Crédito Online Acesse informação de ponta, onde você estiver.

Sua revista Tecnologia de Crédito é publicada exclusivamente na web. É mais um passo da Serasa Experian para a redução do impacto de suas atividades sobre o meio ambiente, além de um alinhamento à tendência global da universalização de conteúdos. Acesse e mantenha-se bem informado sobre o mercado de crédito. serasaexperian.com.br/revista-tecnologia-de-credito

Proteja A Serasa Experian oferece soluções sob medida para o seu negócio. São produtos e serviços exclusivos, que vão desde consultas de crédito até ferramentas e softwares para gerir melhor sua empresa. Tudo muito prático, rápido e rentável. E o melhor: cabe no seu orçamento. Entre em contato e prepare-se para se destacar da concorrência.

Para saber mais, acesse serasaexperian.com.br ou ligue para 3004 7728

SoluçõeS eSPeCífiCaS Para Cada etaPa do Seu negóCio

 

Busque novos clientes

 

Venda com segurança

Monitore empresas, clientes e sócios

Cobre devedores

Compre só os dados de que precisa

View more...

Comments

Copyright © 2020 DOCSPIKE Inc.