sábado, 29 de agosto de 2009

Magnitudes “naturais”, a política do Fed e Risco Moral

Publicamos artigo de João Marcus sobre o FED. Boa Leitura!

A “ciência econômica” moderna está cheia de magnitudes “naturais”. Temos a taxa natural de juros (Knut Wicksell), a taxa natural de desemprego (Milton Friedman) e o PIB potencial (natural ou normal) (Arthur Okun). E todas essas magnitudes naturais estão ligadas entre si e com a taxa de inflação.
Um conjunto de definições frequentemente utilizadas torna clara a conexão entre essas magnitudes. Assim, a taxa de juros natural é definida como a taxa real do Fed Funds (FF) consistente com o PIB real sendo igual ao seu nível potencial na ausência de choques transitórios de demanda. Por sua vez, PIB potencial é definido como sendo o nível do PIB consistente com uma taxa de inflação estável na ausência de choques transitórios de oferta, enquanto que a taxa natural de desemprego é definida como aquela consistente com o PIB no seu nível potencial.
Desse modo, a taxa natural de juros é entendida como sendo a taxa real do FF consistente com inflação estável na ausência de choques de demanda e oferta. A “inflação estável” em questão é aquela definida, implícita ou explicitamente, como “meta”.
Para Wicksell, no entanto, a ligação era direta, com sua definição (formulada em 1898) sendo: “Existe certa taxa de juros sobre empréstimos que é neutra com respeito aos preços de commodities, não tendendo nem aumentá‐los ou reduzi‐los”.
A versão moderna transformou a taxa natural de juros de Wicksell na taxa neutra imposta ao mercado pelo Banco Central com a intenção de controlar o nível da atividade econômica a cada momento de modo a manter a economia próxima do seu potencial. Desse modo, o Fed estaria respeitando o seu mandato: “promover o máximo emprego e a estabilidade dos preços”.
O problema é que estas magnitudes “naturais”, “neutras” ou “potenciais” não são observadas, tendo, portanto, que ser estimadas. Por mais sofisticados que sejam os métodos usados nas estimações a imprecisão das estimativas é grande. Além disso, diferentes métodos de estimação dão resultados bem distintos.
Exemplo dessas diferenças pode ser visto nas estimativas do PIB Potencial, a mais “badalada” das magnitudes “naturais”, da qual se extrai o famoso “hiato do PIB” como a diferença entre o PIB observado e o “Potencial”, com um hiato positivo indicando pressões inflacionárias.
A figura 1 mostra o “hiato” estimado por Laubach e Williams (LW), do Fed de São Francisco. LW utiliza a Curva de Phillips, um modelo da relação positiva entre a inflação e o hiato do produto para extrair movimentos no hiato do PIB ao longo do tempo. Em resumo, uma inflação (núcleo) acima das previsões do modelo implica em um hiato positivo. Do mesmo modo uma inflação abaixo da prevista pelo modelo indica um hiato negativo.
A figura 2 representa o hiato do produto a partir do cálculo do PIB potencial baseado no consumo de bens não duráveis e serviços. Pela hipótese da renda permanente de Friedman, o consumo das famílias não depende de sua renda corrente, mas da sua renda permanente (aquela que deve perdurar no tempo). Por exemplo, um estudante de medicina tem uma renda corrente baixa, mas sua renda permanente deve ser elevada, permitindo um consumo corrente mais elevado do que aquele que seria indicado pela sua renda corrente.
De modo mais geral, se os agentes percebem que a variação do PIB (renda) é temporária, não irão modificar seu consumo. No entanto, se a variação do PIB for interpretada como duradoura, o consumo vai se ajustar. Assim, uma estimativa do PIB potencial pode ser obtida da regressão do PIB no consumo (de bens não duráveis e serviços).
Nas duas figuras o hiato do produto é contrastado com aquele estimado pelo CBO (Escritório do Orçamento do Congresso), representando a estimativa oficial do hiato do PIB. O cálculo do hiato pelo CBO se baseia nas estimativas dos componentes do PIB potencial. Por definição o PIB potencial resulta da multiplicação do produto potencial por trabalhador (produtividade) e do total de trabalhadores quando a economia se encontra no pleno emprego (oferta de trabalho). As áreas hachuriadas denotam períodos de recessão.
O CBO analisa os fatores que afetam o nível da produtividade potencial – incluindo o grau de educação e experiência dos trabalhadores e o capital e tecnologia disponíveis – assim como fatores que afetam a oferta de trabalho.

À primeira vista, a semelhança entre as três estimativas do hiato é grande, mas no detalhe percebemos diferenças marcantes. Comparando o hiato dado por LW com aquele estimado a partir do consumo nos anos 1970, observa‐se que a partir da estimativa de LW o hiato se mostra significativamente positivo enquanto que o hiato a partir do consumo se mantém, na maior parte do tempo, negativo.
Como discutido acima, o hiato estimado por LW se baseia na inflação. Nos anos 1970, essa foi alta e crescente, indicando, pelo método de estimação do hiato de LW, que esse era positivo. Já no caso da estimativa pelo consumo, a inflação é somente um dos determinantes da expectativa de renda ao longo do tempo. Na prática, a estimativa de um hiato negativo, a despeito da presença marcante da inflação no período, está indicando que os agentes (consumidores) enxergavam a economia produzindo temporariamente abaixo do seu potencial, apesar da inflação. A estimativa do CBO, especialmente após o choque do petróleo ao final de 1973 está mais de acordo com as “antecipações” do consumidor.
O contrário acontece na segunda metade dos anos 1990. Enquanto a estimativa do hiato de LW indica que a economia tinha “capacidade ociosa” (hiato notadamente negativo), já que a inflação estava baixa e em queda, os agentes “estimavam” que nem todo o aumento de produtividade no período era permanente, ou seja, o PIB observado se encontrava acima do seu “potencial”. Neste período, mais uma vez, a estimativa do hiato a partir do consumo é semelhante à estimativa estrutural do CBO.
Entre 2002 e 2007, as três estimativas de hiato, notadamente aquela dada pelo consumo, indicam que a economia estava evoluindo muito próxima do seu potencial.
Uma característica que ressalta das figuras 1 e 2 é a maior variação do hiato estimado pelo CBO quando comparado àqueles estimados por LW e consumo. Isso é um fato marcante na recessão que teve início em dezembro de 2007. Enquanto o hiato estimado pelo CBO é um pouco maior do que ‐6% no primeiro trimestre de 2009, este se encontra um pouco abaixo de ‐ 2% pelas outras duas estimativas.
A rapidez do alargamento do Hiato medido pelo CBO é a principal razão por detrás do “medo” da deflação e, por simetria, da ausência de “medo” da inflação, apesar de toda a expansão de liquidez verificada nos últimos meses. A elevada “capacidade ociosa” indicada pelo hiato do CBO levou Krugman e DeLong a ridicularizarem, em março, aqueles que duvidavam das projeções do CBO no sentido de que mais a frente o déficit público seria reduzido, já que, como verificado historicamente, a retomada do crescimento seria robusta em função da ampla ociosidade na economia.
A amplitude do hiato do CBO se deve ao fato de que o PIB potencial por ele calculado pouco varia, ao contrário do que acontece com o PIB potencial estimado por LW ou a partir do consumo. Enquanto o PIB potencial calculado por LW e a estimativa baseada no consumo indicam que houve uma queda substancial do PIB potencial, esse pouco variou de acordo com o CBO. A figura 3 ilustra comparando o crescimento do PIB potencial calculado pelo CBO com aquele estimado a partir do consumo. A figura 4 mostra para os anos recentes o comportamento do PIB observado e do PIB potencial, tanto o do CBO quanto o estimado a partir do consumo.
A natureza e intensidade do choque propiciado pela crise do subprime é mais compatível com a observação de uma queda do PIB potencial. Isso também é conforme com as pesquisas feitas por Rogoff sobre crises financeiras em diversos países e em diferentes épocas. Adicionalmente, indicadores mais qualitativos do PIB potencial, como “percepções sobre o mercado de trabalho”, “sondagens de empresas” e “vagas de trabalho oferecidas” também indicam que este deve ter sido reduzido.

A sabedoria convencional e a estimativa “oficial” do hiato do PIB (CBO) indicam que os EUA estão na sua segunda pior recessão depois da de 1981/82 (ver Figuras 1 e 2). Baseado naquela “experiência”, essa recessão deveria causar uma significativa redução da inflação núcleo (exclui energia e alimentos). No entanto, ao contrário de 1981/82, agora a inflação inicial era baixa, flutuando em torno da “meta” de 2%, trazendo, assim, riscos significativos de deflação.
A figura 5, no entanto, mostra que isso não se verifica, com a inflação praticamente não variando nos últimos 2 anos. Aqueles que acreditam piamente na “teoria do hiato” como o principal determinante da inflação devem enxergar nisso uma “prova” de que o “grau de ociosidade” ou hiato do PIB deve ser bem menor do que o que está sendo indicado pela estimativa “oficial”, ou seja, o PIB potencial se reduziu significativamente.
Assim, o risco de deflação, tão temido pelos responsáveis pela política monetária, em especial Bernanke, pode ser bem menor do que se poderia imaginar. Com toda a expansão monetária em curso, acompanhada do volume de “estímulos” fiscais já definidos e os prospectivos, não seria surpresa se em breve o “pêndulo” do sentimento se voltasse mais nitidamente para o risco de inflação, uma reprise da estagflação dos anos 1970!
De toda essa discussão, se alguma conclusão pode ser tirada essa é a de que o hiato do PIB como “coordenador” da política monetária, isto é, a escolha do juro “neutro” de modo a que o Fed possa satisfazer seu mandato de (a) manter o máximo emprego/crescimento e (b) a estabilidade dos preços (inflação na “meta”), confere um elevado grau de “arte” a “ciência” da política monetária.
Como Greenspan disse uma vez, o Fed “tateia no escuro” (pelo menos na penumbra). Durante a maior parte dos seus dezenove anos à testa do Fed Greenspan “tateou”. Hoje é considerado por muitos como o maior culpado pela crise que assola o mundo, especialmente por ter mantido os juros baixos demais entre 2001 e 2004.
Por outro lado, presidiu sobre a maior parte do tempo em que vigorou a chamada “Grande Moderação”, que nada mais reflete do que a bem sucedida execução do seu “mandato”. Crescimento estável e inflação e desemprego baixos.
Para situar a discussão da política do Fed ao longo da “era Greenspan”, a figura 6 mostra as principais variáveis macroeconômicas nos 22 anos entre 1960 e 1982 e nos 22 anos entre 1983 e 2005 (com Greenspan à testa do Fed entre meados de 1987 e janeiro de 2006).
Por qualquer critério o desempenho da economia pós 1982 foi “estelar”, caracterizada especialmente pelas reduções das volatilidades (Desvio Padrão) das variáveis. Também notável é o fato de que enquanto entre 1960 e 1982 a economia esteve oficialmente em recessão 22.3% do tempo, entre 1983 e 2005 esse percentual foi de somente 6.1%! Nos 22 anos compreendidos entre 1918 e 1940 o percentual do tempo passado em recessão foi de 43%, dominado que foi pela Grande Depressão.
Como não se pode acusar Greenspan de não ter atingido os objetivos do seu mandato, a “arma” utilizada para “imolar” Greenspan é a Regra de Taylor. Quando concebida por John Taylor de Stanford no início dos anos 1990 foi considerada uma boa descrição da atuação do Fed no período pós 1984, podendo ser útil como instrumento para previsão da política monetária.
Com o tempo a “Regra” foi transformada de instrumento de descrição em instrumento de prescrição. O próprio Taylor se encarregou de tentar elevar o status da sua “Regra”. Para Taylor:
“Se a regra de política chega próxima de descrever o comportamento observado do Fed em anos recentes e se os membros do FOMC acreditam que esse desempenho foi bom e que deveria ser replicado no futuro sob um conjunto de circunstâncias diferentes, então uma regra de política poderia servir de guia para discussões futuras. Isso pode ser particularmente relevante quando de mudanças nos quadros do FOMC. Tal regra de política poderia se tornar um guia para FOMC´s futuros”.
Fantástico! Se estivéssemos falando de vestibular seria como se algum cursinho tivesse conseguido elaborar a apostilha que garantisse a todos os candidatos que estudassem por ela entrar na escola de sua escolha!
O que é exatamente a “Regra” (enquanto instrumento prescritivo)? Da forma mais simples, ela prescreve juros mais altos quando a inflação excede a “meta” e/ou quando a economia está “aquecida” (acima do “potencial”) e juros mais baixos quando o oposto é verdadeiro. Quando esses objetivos (inflação na “meta” e “pleno emprego”) conflitam, a “Regra” indica a manipulação correta dos juros.
A equação padrão da Regra de Taylor pode é escrita como (baseada numa “meta” de inflação
de 2% e na suposição de uma taxa real de juros “neutra” também de 2%):


No início do período, a taxa FF praticada é maior do que aquela ditada pela RT. Isso se dá porque o Fed buscava credibilidade depois de mais de uma década de inflação fora do controle.
O período crítico, tido como responsável pela crise em curso, é o que vai de meados de 2001 a meados de 2004, período durante o qual o juro praticado ficou “baixo demais” dando “asas às cobras especulativas no mercado imobiliário”.
Olhando novamente a figura 6 e tabela 1, me sinto compelido a “defender” Greenspan. Talvez o erro não esteja no fato de que os juros permaneceram “baixos demais por tempo demais”, mas sim que outras funções do Fed (supervisão do sistema, por exemplo) tenham sido deixadas de lado.
A figura 8 mostra o “detalhe” do período em questão.
Uma das razões dadas para a redução da taxa FF a 1% foi a de que o Fed estava bastante preocupado com a possibilidade de deflação. Em palestras em 2003 Bernanke (especialista na Grande Depressão) chegou a levantar a hipótese de que o Fed poderia comprar títulos longos do Tesouro, ganhando o apelido de “Helicopter Ben” em alusão a uma antiga parábola de Friedman para explicar os efeitos de uma expansão monetária.
Enquanto o temor de deflação perdurou, a taxa FF se manteve “muito baixa”. O que Bernanke não fez em 2003, comprar títulos longos do Tesouro, fez em 2009!
Como ilustra a figura 8, a economia se mostrava bastante “fraca” em 2002/2003 mesmo com o fim da recessão de 2001 (hiato negativo). Simultaneamente a inflação caia significativamente abaixo da sua “meta”. Como as ações da Nasdaq haviam despencado em 2000, induzindo uma forte retração no investimento, estava “pintado” um cenário que resgatava memórias de 1929.
Essa é a explicação mais razoável para a queda e manutenção em nível baixo da taxa de juros.

A “história” oficial contada pela figura 8 está baseada na teoria do hiato da inflação. Uma “história” alternativa, que possivelmente melhor explica a forte redução da inflação em 2002 e 2003 que causou tanto medo de deflação, pode ser contada baseada no que estava acontecendo com a moeda no período.
Inflação é um fenômeno monetário, refletindo um “desequilíbrio” entre oferta e demanda de moeda. Se a oferta de moeda crescer mais do que a demanda de moeda, o resultado vai ser um aumento da inflação. Se crescer menos do que a demanda, a inflação tende a cair. O problema é a instabilidade da demanda de moeda (velocidade) que se verifica nos últimos 35 anos. No entanto, existe um agregado monetário que manteve, ao longo do tempo, uma relação estável com seus determinantes (renda e custo de oportunidade). Este agregado é o chamado MZM (Money Zero Maturity), ou “moeda de prazo zero”, composta dos elementos perfeitamente líquidos de M2.
Então, se definirmos a base monetária como o agregado que representa a “oferta” de moeda e MZM como representante da “demanda” de moeda, deveríamos observar uma queda da inflação se MZM crescer acima da base monetária.
A figura 9 mostra o que estava acontecendo com esses agregados monetários no período “crítico”.

Em 2000 a base foi fortemente contraída para “compensar” a expansão ocorrida em 1999 na antecipação do “bug do milênio”. Por outro lado, o crash da Nasdaq incitou um aumento da demanda por liquidez, levando a um forte crescimento de MZM, que também foi afetado pela queda do seu custo de oportunidade em função da redução dos juros.
Tanto a queda da inflação em 2002/03 como sua volta em direção à meta a partir do final de 2003 quando a “oferta” monetária volta a crescer um pouco acima da “demanda”, são consistentes com essa “história”.
A "história” convencional de que a crise se deve ao fato de a política monetária ter desrespeitado a Regra de Taylor, mantendo os juros baixo demais por tempo demais, incitando a especulação imobiliária não é muito convincente como discuto adiante.
A figura 10 reproduz para o início dos anos 1990 a figura 8. Ali vemos também que os juros ficaram muito aquém do recomendado pela “Regra”. No início dos anos 2000, o crash da Nasdaq e o hiato negativo do produto (que estariam por trás da queda da inflação abaixo da “meta” e do medo da deflação) “explicam” a ação do Fed.
No início dos anos 1990 a ação do Fed está ligada também a uma economia “fraca”, com o hiato do PIB significativamente negativo, aos problemas das Associações de Poupança e Empréstimo (S&L) e aos problemas de vários bancos com a dívida externa de países emergentes. O preço real dos imóveis que havia subido 18% entre 1985 e 1989 cai 13% entre 1990 e 1993 (Figura 11). Só quando esses preços se estabilizaram é que o Fed retomou a alta dos juros, que subiram de 3% ao final de 2003 a 6% em janeiro de 1995.

De modo interessante, observa‐se que o aumento do preço real das residências entre 1985 e 1989 se dá num momento em que, como se percebe na figura 7, a taxa FF se encontra acima daquela “recomendada” pela “Regra de Taylor”. Ou seja, naquela época os empréstimos de qualidade duvidosa que se seguiram às desregulamentações das S&L´s no início dos anos 1980 não foram “induzidos” por uma taxa de juros FF excessivamente baixa.
A “bolha” da Nasdaq não decorre tampouco dos juros “excessivamente baixos” entre 1991 e 1993, inclusive porque os preços só mostram exuberância muitos anos depois. No entanto, de modo semelhante ao observado na Figura 11, assim que a “bolha estoura”, os juros são reduzidos e mantidos “baixos” até que os preços se estabilizam. A Figura 12 ilustra.
Essa redução dos juros que acompanham degringoladas nos preços de ativos ficou conhecida como a “put de Greenspan” (agora de Bernanke). Uma put protege o investidor contra a queda do preço de um ativo através da opção de vendê‐lo a um preço pré determinado até a data do vencimento do contrato.
O nome de Greenspan foi ligado ao conceito quando os investidores passaram a acreditar que o FOMC não aumentaria os juros para restringir uma elevação nos preços dos ativos (ações, imóveis), mas que reduziria os juros – rapidamente, vigorosamente e intencionalmente – para frear uma queda. Esse tipo de intervenção do Fed soa muito boa para ser verdade, e é mesmo.
Basta ver a “montanha russa” das ações da Nasdaq ou a dos preços dos imóveis residenciais nos últimos anos. Mas de todo modo, as ações do Fed passaram a ser vistas como indutoras de risco moral.
Já demonstramos que as ações do Fed nos últimos 25 anos foram tomadas com o objetivo de estabilizar a economia. Nesse sentido, seu sucesso não pode ser negado, como visto na figura 6 e Tabela 1.
No entanto, o “encantamento” com a estabilidade macroeconômica (e com a capacidade de o Fed obtê‐la, mesmo em situações adversas) teve consequências não intencionadas: Quanto melhor o desempenho do Fed maior será o “seguro” contra recessões e, portanto, maior o risco moral que o acompanha.
Pela lógica, aqueles que “acusam” o Fed de “promover” o risco moral devem ter “saudade” dos períodos em que a economia passava 20%, 30% ou 40% do tempo em recessão, já que a manifestação de um ambiente de alto risco induziria um comportamento mais “conservador” dos agentes, resolvendo o problema de risco moral!
Ter bem claro que a redução dos riscos macroeconômicos conseguidos nas últimas décadas é um “bem” valioso é o que deve nortear as ações na tentativa de resolver a crise. Simplesmente “mais governo” ou “mais regulamentação” não é a resposta correta.
___________________________________________________________________________________
*João Marcus Marinho Nunes – 2 de julho de 2009

quinta-feira, 27 de agosto de 2009

Assimetria Informacional e Governança Corporativa - A autorregulaçaõ pode atenuar conflitos de agência?

Publicamos artigo de minha autoria e de Danyel Reimão dos Santos sobre Governança Corporativa. Boa Leitura!

O discurso do aumento do poder dos órgãos reguladores vem se generalizando em todas as mídias, principalmente após o desembolso de trilhões de dólares feitos pelo governo norte-americano para o setor financeiro como tentativa de estancar os prejuízos dos bancos e Agentes financeiros em geral e evitar perdas por parte dos investidores. Os números de instituições financeiras que sofreram intervenção pelos órgãos reguladores no mercado norte-americano são expressivos e demonstram parte das conseqüências da chamada crise do subprime.
Duas questões importantes estão no centro da crise: como o regulador pode lidar com as questões de agência, ou seja como um participante externo a uma companhia pode amortecer ou atenuar problemas em
formação, oriundos de divergências ou de convergências entre controle e execução?
A Governança Corporativa pode exercer dentro das organizações a função de autorregular os conflitos de agência de uma forma isenta? Recentemente substanciais prejuízos gerados pelo uso de instrumentos Derivativos por companhias abertas no Brasil levaram o Regulador a alterar e aumentar o nível de exigência ou disclosure das informações a serem divulgadas publicamente, esta atitude de caráter reativo veio como uma resposta a própria inércia da legislação que não se modernizava desde 1995, sendo que o número de crises vivenciadas pela Economia Brasileira neste mesmo período implicava uma evolução da norma jurídica como uma atitude de caráter prudencial.
Dois exemplos interessantes sobre as dificuldades da regulação prudencial são a criação da SEC – Securities Exchange Comission nos Estados Unidos em 1934 e da Comissão de Valores Mobiliários - CVM no Brasil em 1976, motivadas por seqüelas de crises de bolsas que causaram não só prejuízos, mas um grande desânimo para reativar o Mercado de Capitais.
O regulador parte da premissa que os agentes financeiros conhecem as normas de funcionamento e que o incentivo existente pelo não cumprimento das mesmas funcionaria como um amortecedor à problemas de gestão temerária.
Esta premissa, embora do ponto de vista ético seja perfeita, ignora as pressões e conflitos vivenciados dentro das corporações em função da assimetria informacional.
Além disso,as decisões tomadas dentro das organizações modernas refletem um ambiente organizacional complexo, onde é necessária a confiança dos financiadores nos administradores de recursos das companhias.
Indivíduos, porém, possuem conflitos de interesses pessoais dentro de uma mesma empresa e possuem informações diferentes com relação à mesma empresa e a função que exercem dentro dela.
Adicionalmente, todas as empresas têm relacionamentos comerciais e financeiros com agentes externos a elas, tais como bancos , acionistas minoritários, sindicatos que congregam seus trabalhadores, seus clientes e com os reguladores que acompanham os desdobramentos de todos os atos oficias das empresas e os impactos no conjunto dos stakeholders.
Tais agentes externos, intuitivamente, dispõem de menos informação do que os protagonistas internos, que pertencem aos quadros gerenciais da empresa. Surge ai o problema da assimetria informacional.
Assim é necessário que as organizações tenham uma comunicação unificada por meio da Contabilidade e de sua linguagem contábil, que é a linguagem dos negócios e que pode ser utilizada sob diversos aspectos, para que exista uma difusão de informações entre os diversos agentes e usuários, e para coordenar os contratos existentes entre os agentes econômicos envolvidos com a empresa.
Assim, observam-se dentro das empresas dois grandes problemas: o da Assimetria Informacional e o do Accountability, sendo este último o problema de saber o que e a quem divulgar informações relevantes.
Como o conflito de interesses entre os agentes é inerente ao processo de informação de uma corporação existe um conjunto de mecanismos de incentivo e controle, internos e externos, que visam minimizar os custos decorrentes do problema de agência, denominado Corporate Governance ou Governança Corporativa (GC).
O Conselho de Administração, a política de remuneração, a estrutura da propriedade e controle, são exemplos destes mecanismos de Governança.
__________________________________________________________________________________
*Ricardo Humberto Rocha e * Danyel Reimão dos Santos

terça-feira, 25 de agosto de 2009

A recessão acabou?

Pulicamos artigo de João Marcus Marinho Nunes sobre a recessão. Boa Leitura!

Há pouco mais de um mês, Robert Gordon, da Universidade Northwestern e membro do comitê do NBER responsável por datar o ciclo econômico desde 1978, escreveu nota discutindo a estreita relação que descobriu existir entre os picos cíclicos dos novos pedidos de seguro desemprego (medido na forma da média móvel de quatro semanas) e o piso da recessão. Sua conclusão:
“É sempre arriscado tirar conclusões definitivas, mas o pico recente nos novos pedidos de seguro desemprego que se manifestou na primeira semana de abril se assemelha bastante aos picos observados nas recessões anteriores para me permitir concluir que um novo pico de fato ocorreu... Esse raciocínio me leva a concluir que o piso da recessão deve se dar em maio ou junho de 2009, bem mais cedo do que esperado pela maioria dos previsores profissionais...”
A comparação é feita tomando como base as últimas cinco recessões – 1973/75, 1980, 1981/82, 1990/91, e a de 2001. É óbvio, como diz Gordon, que se o NBER usasse os dados de novos pedidos como um dos critérios para determinar a data do fim da recessão, essa “descoberta” seria tautológica. No entanto, tendo participado do comitê por mais de 30 anos, Gordon atesta que nunca foi dada a menor consideração nas deliberações aos dados de novos pedidos ou mesmo à taxa de desemprego. Segundo Gordon, o nível corrente do emprego (NFP) está entre as quatro variáveis de frequência mensal que são consideradas pelo comitê, mas como poderemos observar adiante, esta variável não guarda qualquer relação com os novos pedidos de seguro desemprego.
O painel 1 mostra o comportamento dos novos pedidos de seguro desemprego (novos pedidos) durante as 10 semanas anteriores e posteriores ao pico (denotado pela linha pontilhada verde). A linha cheia vermelha denota o final da recessão estabelecida como ocorrendo na terceira semana do mês de referência.
O pico de novos pedidos ocorre de 4 semanas (recessão de 2001) a 6 semanas (recessões de 1973/75, 1980, 1990/91). Na recessão de 1990/91, o pico de novos pedidos se dá 2 semanas após o término da recessão.
Na recessão em curso, a queda dos novos pedidos depois do pico é “suave”. Mas isso também ocorreu após o pico na recessão de 1973/75 e, de certa forma, após o pico na recessão de 1980. Essa característica contrasta com a forte queda de novos pedidos após o pico nas recessões de 1981/82, 1990/91 e 2001. Não vou especular sobre possíveis razões, mas como observei acima, essa característica não guarda relação com o nível de emprego como talvez fosse natural de se pensar.
Isso pode ser observado no painel 2, que mostra o comportamento do emprego (NFP) do momento em que a recessão oficialmente tem início até 10 meses após o seu fim,assinalado pela linha vermelha.
Nas recessões de 1973/75, 1980 e 1981/82, o emprego começa a subir concomitantemente ou logo após o fim da recessão. Nas recessões de 1990/91 e 2001, o comportamento do emprego é bem distinto continuando a cair e permanecendo baixo por longo tempo após o fim da recessão.
Note que nas recessões de 1990/91 e 2001, isso se dá apesar da forte queda de novos pedidos como pode ser observado no Painel 1. No sentido oposto, na recessão de 1973/75 ou de 1980, a relativamente forte recuperação do emprego não impede uma lenta queda dos novos pedidos. Assim, não podemos relacionar o comportamento do emprego com o de novos pedidos.
O painel 3 mostra o comportamento do PIB durante e nos 3 trimestres seguintes ao final da recessão (assinalado pela linha vermelha). Com exceção da recessão de 2001 (em que o PIB caiu um único trimestre e não ficou negativo na comparação anual), em todos os outros casos a tendência do PIB inverte com o final da recessão.
Assim, se não houver nenhum “cisne negro” no caminho, o PIB deve mostrar crescimento no 3º trimestre de 2009, com o fim da recessão (posteriormente) sendo decretada como tendo ocorrido em maio ou junho de 2009.
Essa “conclusão” é consistente com as indicações que estão sendo dadas pela razão consumo (de não duráveis e serviços)-PIB como discuti recentemente. Em resumo, como essa razão está acima da sua média (constante) de longo prazo, o PIB deve crescer para trazer a razão de volta à média.

__________________________________________________________________________________
*João Marcus Marinho Nunes – 5 de junho de 2009

domingo, 23 de agosto de 2009

O mercado de Trabalho e a Recessão

Publicando artigo de João Marcus Marinho Nunes sobre a Recessão e o trabalho. Boa Leitura!

Uma das razões colocadas pelos assessores econômicos do Presidente Obama ao final de 2008 para justificar a proposta de estímulo fiscal está refletida na Figura 1, que mostra a evolução da taxa de desemprego com e sem o plano de estímulo fiscal. Vemos que o resultado de fato observado é até pior do que o imaginado sem o plano. Uma das hipóteses por detrás da simulação era a de que o multiplicador dos gastos públicos seria de 1.5, ou seja, para cada $1 de gasto, o PIB aumentaria em $1.5!
No dia 2 de julho, a divulgação dos dados do mercado de trabalho foi mal recebida, com a redução das vagas (destruição de emprego) vindo acima do esperado, voltando a subir depois de ter caído em junho.
Para muitos, esses resultado indica que o plano de estímulo tem que ser aumentado, especialmente quando se observa que durante esses 18 meses de recessão a destruição de empregos já quase anula a criação de empregos obtida nos seis anos de expansão entre dezembro de 2001 e novembro de 2007, fato somente antes visto na Grande depressão. A Figura 2 ilustra.
Em outros tempos, a retomada do emprego era um sinal confiável de que a recessão havia terminado. Desde 1990, isso deixou de ser verdade. A Figura 3 mostra o comportamento do emprego em torno das cinco recessões anteriores à atual. (As datas na figura se referem ao comportamento do emprego podendo ser diferentes do período de recessão oficial).
Observa‐se na Figura 4 que apesar das recessões de 1990/91 e a de 2001 terem sido brandas e curtas, o emprego demorou muito mais a se recuperar (voltar ao nível inicial) do que durante as recessões mais profundas e/ou longas dos anos 1970 e início dos anos 1980. (A data de 2008 colocada na figura 4 para a recessão atual se deve ao fato de que o pico do PIB se deu no segundo trimestre de 2008).
Essa característica das recuperações após as recessões ganhou o nome de jobless recoveries (recuperações sem emprego) ou mesmo job loss recoveries (recuperações com perda de emprego).
Os movimentos divergentes do PIB e do emprego nas recuperações das recessões de 1990/91 e 2001 sugerem o aparecimento de um novo tipo de recuperação econômica, uma induzida especialmente por ganhos de produtividade ao invés de por aumentos de emprego. O fato de não ter havido criação de novos empregos durante o período inicial das recuperações no início dos anos 1990 e após 2001 indica que o PIB cresceu porque os trabalhadores produziram mais por hora trabalhada. Não foi o caso de trabalharem mais horas, visto que a média de horas trabalhadas caiu um pouco.
A Figura 5 mostra que, de fato, o comportamento da produtividade é bem distinto nas recessões de 1990/91 e 2001 quando comparada às recessões dos anos 1970 e início dos anos 1980.
As recessões misturam ajustamentos cíclicos e estruturais. Ajustamentos cíclicos são respostas reversíveis a flutuações na demanda, enquanto que ajustamentos estruturais transformam uma empresa ou indústria através da realocação de trabalhadores e capital.
As perdas de trabalho associadas com choques cíclicos são temporárias. Ao final da recessão as indústrias retomam e os trabalhadores dispensados são chamados de volta ou acham trabalho comparável em outra empresa.
As perdas de trabalho que resultam de mudanças estruturais, ao contrário, são permanentes. As indústrias declinam e empregos são eliminados, obrigando os trabalhadores a mudar de indústria, setor, região ou desenvolver novas habilidades de modo a encontrar um novo trabalho.
Após essa introdução geral, podemos discutir o que esperar do mercado de trabalho no ciclo em curso. Das figuras 3 e 4, as perdas de emprego e a queda do PIB atualmente são até mais agudas e intensas do que nas recessões anteriores a 1990. Por outro lado, o comportamento da produtividade se mostra semelhante ao observado após 1990.
No ciclo em curso, apesar do comportamento da produtividade, o PIB, ao contrário de 1990/91 e 2001, cai até mais intensamente do que nas recessões “tradicionais”. A razão disso pode ser observada na Figura 6, que mostra o crescimento do agregado de horas trabalhadas, que considera tanto o emprego quanto a média de horas trabalhadas.
Como visto o agregado de horas já caiu tanto quanto caiu no fundo do poço da recessão de 1973/75. Na figura 4 observamos que a queda do PIB atualmente iguala a queda máxima da recessão de 1973/75, apesar da maior queda do emprego no ciclo atual (Figura 3). No entanto, a produtividade atualmente cresce enquanto caia em 1973/75, “fechando a equação”.
Desse modo, as indicações são de que nos defrontamos mais uma vez com uma recuperação no estilo job loss recovery. As mudanças estruturais no ciclo atual não são difíceis de encontrar, bastando olhar para o que está acontecendo, por exemplo, com a indústria automobilística, a de construção ou com a indústria financeira.
Como passo a argumentar, dessa vez o processo deve ser mais “duro” ainda, no sentido de que a recuperação do emprego será bem mais longa, ainda que o PIB mostre uma retomada em breve.
Uma boa indicação da natureza cíclica ou estrutural do processo de ajuste na recessão é saber se o desemprego observado é temporário. Quando a dispensa é temporária, o empregador “suspende” o trabalhador, geralmente devido à demanda fraca. Tanto o empregador como o empregado esperam que a relação de emprego seja retomada quando as condições melhorarem. Nesse caso o empregador até ajuda o empregado a aplicar para o recebimento do seguro desemprego de modo que ele mais provavelmente aguarde ser chamado de volta ao invés de procurar outro emprego. Assim, quando muitas dispensas são temporárias, a retomada do emprego quando da melhora das condições tende a ser rápida.
A Figura 7 mostra a proporção dos desempregados que foram temporariamente dispensados. É nítida a redução da fração dos dispensados temporariamente nas recessões de 1990/91 e 2001 em relação ao padrão anterior. No momento temos o menor percentual de trabalhadores dispensados temporariamente. Mais grave ainda é o fato de que as dispensas temporárias, ao contrário de aumentar ao longo da recessão como geralmente acontece, estão caindo, ou seja, a proporção de dispensas permanentes está aumentando.
A empresa também pode, quando de uma recessão, reduzir o número de horas trabalhadas pelo empregado. Esse não é considerado desempregado, mas, como gostaria de estar trabalhando horário integral, é considerado subempregado.
A Figura 8 mostra o percentual da força de trabalho em regime parcial (ou subempregada) nos últimos 40 anos. Esse percentual normalmente cresce durante as recessões, mas no ciclo em curso esse crescimento “quebrou os padrões”.
Desse modo, quando a recuperação econômica tiver início as horas trabalhadas devem aumentar sem um aumento correspondente do emprego. Dado o elevado número de trabalhadores em tempo parcial, combinado com o baixo percentual de dispensas temporárias, está montado o cenário de um prolongado período de recuperação sem aumento do emprego, já que quando a recuperação tiver início, mais do que nas recessões passadas os empregadores se aproveitarão dos trabalhadores existentes (em tempo parcial) ao invés de contratar novos funcionários.
Essas considerações indicam que o problema do elevado desemprego tem características estruturais não sendo razoável supor que possa ser “corrigida” por programas de estímulo. Esses, ao contrário, por elevarem o nível futuro de impostos (inclusive corporativos), podem inclusive contribuir para retardar os ajustes que se fazem necessários.
Pode‐se perguntar se existe alguma implicação especial do comportamento do mercado de trabalho para a bolsa, visto que a taxa de desemprego e as perspectivas de emprego são variáveis que afetam o “sentimento” dos agentes econômicos.
A figura 9 ilustra o comportamento do S&P 500 durante as recessões.
Por exemplo, mesmo dado o comportamento semelhante do mercado de emprego durante o início dos anos 1990 e 2000, enquanto no primeiro caso a bolsa rapidamente voltou ao seu nível original, o processo demorou sete anos no segundo caso (apesar da retração econômica ter sido ainda mais “branda”).
Como o comportamento da bolsa em 2000/07 reflete o crash da Nasdaq em 2000, e agora também temos um crash no mercado de ativos (residências e ações), deveremos também observar uma retomada lenta, gradual e pontuada por alta volatilidade no mercado de ações. Além disso, devido à questão de mudanças estruturais potencialmente fortes, a recuperação econômica deverá ser mais lenta do que o foi depois de 2001, sendo mais um fator impeditivo a uma recuperação mais robusta da bolsa.

__________________________________________________________________________________
*João Marcus Marinho Nunes – 6 de julho de 2009

Mais um Sonho Termina

Publicamos artigo de João Marcus Marinho Nunes sobre a Crise de Crédito. Boa Leitura!

Daqui a alguns anos um leitor casual da história econômica vai achar difícil entender como as coisas foram da serenidade ao pânico ao final da primeira década do milênio. Paradoxalmente, a semente da crise de 2008 pode ser encontrada na ampla aceitação da noção de que a economia americana (e mundial), ao longo das duas décadas anteriores, havia evoluído para melhor.
Isso não é algo imaginado, como demonstrado nas figuras 1 e 2 onde se observa que ao longo dos últimos 25 anos (até 2007) a economia americana se tornou muito mais estável e com inflação baixa. As recessões nesse período foram raras (duas) e “amenas”.
De uma maneira geral, a “Grande Moderação” – como esse período ficou conhecido – é em boa medida atribuída ao consenso que se chegou a respeito do papel e conduta apropriada para a política monetária depois dos insucessos da política econômica nos anos 1970.
No entanto, em economia, um consenso raramente se mantém por muito tempo. Ao contrário, parece haver uma variante da “Lei de Murphy” que dita que assim que se estabelece um consenso, algo acontece para implodi-lo!
Isso já havia sido observado nos anos 1960, quando se chegou ao consenso de que a política econômica seria capaz de controlar o ciclo, mantendo o crescimento econômico robusto, o desemprego em nível aceitável e uma inflação sob controle. Nos EUA esse período ganhou o nome de “Idade de Ouro” (“Golden Age”). Esse “sonho”, como se sabe, se tornou nos anos 1970 o “pesadelo” da “Grande Inflação”.
Depois de domarem o “monstro” da inflação com grande sacrifício no início dos anos 1980, na visão dos formuladores da política econômica ao redor do mundo a crença era de que o maior perigo para a estabilidade econômica seria permitir que o “monstro” voltasse a sair do controle, exigindo uma política de repressão que inevitavelmente resultaria em recessão.
Isso se tornou uma obsessão e como toda obsessão impediu que pensasse a respeito de possíveis consequências da “Grande Moderação”. Não que possíveis consequências fossem desconhecidas. Em 1957, quase três décadas antes do início da “Grande Moderação”, Hyman Minsky havia argumentado que: “Durante períodos de expansão tranquila as instituições financeiras, na busca de lucros, inventam e reinventam “novas” formas de moeda e técnicas de financiamento para todo tipo de atividade,
sendo a inovação financeira uma característica da economia nesses bons momentos”.
A tese de Minsky descreve um sistema que produz ciclos através da interação entre incerteza, expectativas, assunção de dívidas e preços de ativos. O que acontece quando os agentes aumentam seu “apetite por risco” quando a expansão se prolonga? A resposta, segundo Minsky, é que os pequenos desapontamentos que acontecem em todas as economias acabam tendo consequências exageradas. Por quê? Devido ao fato de que muitas empresas e indivíduos se amarram a grandes contratos de dívida e que, para satisfazer essas obrigações, necessitam (e esperam) que os “bons tempos” (aumento nos preços dos ativos) continuem.
Para Minsky, a história do capitalismo é pontuada por depressões mais ou menos profundas que estão associadas a pânicos financeiros e crashes nos quais observamos rupturas nas relações financeiras e a destruição de instituições. Cada depressão é seguida de uma reforma das estruturas institucionais, frequentemente através de legislação, sendo que a história da moeda, bancos e legislação financeira pode ser interpretada como a busca por uma estrutura que elimine a instabilidade. Um exemplo marcante desse processo é a criação do Federal Reserve em 1913 em resposta ao pânico de 1907. Outras reformas se seguiram com o advento da Grande Depressão nos anos 1930, entre elas o seguro de depósitos e a separação entre bancos de investimento e bancos comerciais.
Curiosamente, entre o fim da Segunda Guerra e 1980 não houve recessão causada por instabilidade (especulação) financeira como no passado. Esse período é marcado pelo amplo controle sobre o sistema econômico em geral e sobre o sistema financeiro em particular (câmbio fixo, controles de capital, juros “tabelados”, etc.) que tornaram o sistema avesso a especulação financeira, mas propenso a surtos inflacionários. Nesse período, as recessões estão associadas às tentativas de debelar a inflação.
No entanto, na esteira do amplo processo de desregulamentação iniciado nos anos 1980, os últimos cinco principais ciclos globais, todos durante o período da “Grande Moderação”, quais sejam: a recessão de 1990 – fortemente influenciada pela crise das Associações de Poupança e Empréstimo (S&L´s) – o colapso do Japão no final dos anos 1980, a crise asiática de 1997, o boom (e colapso) das ações de tecnologia no final dos anos 1990 e a escalada sem precedentes do preço dos imóveis nos últimos anos, resultaram em recessão – regional ou global.
Em nenhum caso houve um aumento prévio significativo de salários e preços e, em todos os casos, observamos um boom de investimentos e um mercado de ativo associado “surtar” antes de entrar em colapso. A “Hipótese da Instabilidade Financeira” de Minsky está de volta com toda força. Muitos têm dito, inclusive, que vivemos um “Momento Minsky”!
As figuras 3 e 4 mostram, para o período de “tranquilidade” macroeconômica (crescimento estável e inflação baixa), que crises de mercado são uma parte integral do sistema econômico capitalista. A história não nos permite negar que o sistema financeiro capitalista provou ser o mais eficiente em alocar os recursos de uma sociedade. No entanto, como ilustrado nas figuras, ciclos se esgotam na sequência de erros e excessos que se manifestam em quedas de mercado e retração econômica.
As figuras 5 a 7 indicam que a história confirma a tese de Minsky de que períodos de “tranquilidade” macroeconômica levam a um aumento no uso de finanças “arriscadas”.
A figura 5A representa a disposição dos investidores em emprestar para empresas mais arriscadas ao longo dos primeiros sete anos desta década. Observe que ao nos distanciarmos do período recessivo de 2001, quando o spread (relativamente ao título de 10 anos do Tesouro) pago por empresas de maior risco eram altos, esse cai continuamente nos anos seguintes. Ao contrário do postulado de que a economia é povoada por agentes racionais, os investidores no “mundo real” aumentam seu entusiasmo por empréstimos arriscados ao longo do período de expansão. A figura 5B ilustra a “ressaca”.
A figura 6 ilustra o mesmo fenômeno acontecendo ao longo da expansão dos anos 1990, sendo que aqui utilizamos o mercado de ações, representado pela série do P/L (Preço/Lucro) das ações que integram o índice S&P 500.
Ou seja, o “amadurecimento” da expansão induz os investidores a se tornarem cada vez mais “otimistas”, aumentando o preço que estão dispostos a pagar relativamente ao desempenho econômico das empresas.
A figura 7 mostra que o fenômeno também estava presente nos anos 1980, que ilustramos utilizando os dois indicadores: a disposição de pagar mais por ações e o apetite crescente (ainda que oscilante) por empréstimos de maior risco. Nem o crash da bolsa em 1987 foi capaz de conter o “otimismo” dos investidores!
A conclusão é clara: como argumentado por Minsky, o aumento do risco acontece “naturalmente”, conduzindo a economia a ciclos de boom seguidos de bust.
As figuras 8 e 9 mostram o boom de investimento e o “surto” no preço do ativo correspondente, seguido de um crash.
Na figura 8 observamos o boom no investimento em equipamento e software e o aumento correspondente do preço das ações de tecnologia (Nasdaq).
A figura 9 ilustra o boom de investimento residencial e o correspondente aumento no preço das residências.
Associado a esses booms e crashes observamos na figura 10 o aumento fantástico do endividamento das famílias!


Curiosamente, a recessão de 2001, associada ao crash da bolsa (especialmente da Nasdaq) foi breve e amena. O contrário acontece agora, com a recessão mais profunda e persistente associada ao crash do preço dos imóveis. O investimento residencial caiu bem mais do que o investimento em tecnologia enquanto o preço das ações de tecnologia caiu muito mais do que o preço das casas.
A razão disso não é difícil de identificar. Investimentos “excessivos” em tecnologia são rapidamente depreciados, ao contrário dos investimentos em estruturas residências.
Por outro lado, o efeito “sistêmico” da (muito menor) queda do preço das casas é muito maior em função do (infinitamente) maior grau de alavancagem nesse mercado (ver o aumento do endividamento das famílias relativamente à renda disponível (50%) após 2001).
Os eventos dos últimos 20 meses tornam claro que a política econômica e as teorias que lhe dão suporte necessitam de um novo paradigma. As virtudes do capitalismo devem ser celebradas, mas não se deve exagerar achando que a “mão invisível” de Adam Smith se tornou, por um “passe de mágica” (pela hipótese de agentes racionais e mercados eficientes), a “mão infalível”. Reconhecer que excessos no mercado de ativos e a prática de finanças “dúbias” têm um papel central nos ciclos modernos é um passo essencial
para nortear o desenho das novas instituições que serão necessárias para minimizar esses efeitos no futuro.

__________________________________________________________________________________
*João Marcus Marinho Nunes – 29 de abril de 2009

O Valor da Reputação Corporativa

Publicamos artigo escrito por Valter Faria sobre Reputação Corporativa. Boa Leitura!

Há uma lacuna nas empresas: um profissional que tenha se qualificado para alinhar administrar fatores intangíveis e garantir que iniciativas e mensagens produzidas pelos diversos departamentos sejam harmônicas entre si e atendam aos objetivos do planejamento estratégico.
A Administração da Reputação Corporativa é um conceito ainda novo, mas em expansão entre grandes corporações globais e algumas assessorias de comunicação e agências de relações públicas mundo afora. Poucos, no entanto, compreendem que a reputação não é apenas uma função de comunicação, mas sim uma função da administração.
A reputação de uma organização não começa com sua comunicação. Nenhum plano de marketing, de relacionamento com investidores (RI), de relacionamento com a mídia ou sofisticadas estratégias de branding, por mais audaciosos que sejam, sustentarão os negócios de uma empresa e a maneira como ela é percebida por seus públicos estratégicos, stakeholders, audiências prioritárias, partes interessadas ou outro nome que se queira dar às pessoas ou grupos que realmente são importantes e vitais para a rentabilidade e perenidade da organização.
Ao contrário, reputação de uma empresa é reflexo de um inspirado modelo de negócios, implementado por meio da habilidade e capacidade de execução de seus administradores, do talento de suas lideranças e da capacidade de resposta em momentos de adversidade. Outros aspectos críticos e determinantes da reputação corporativa são gestão financeira, competitividade dos produtos, marketing, tecnologia, expertise da força de trabalho, atitudes de responsabilidade social, cultura, praticas (e não apenas discurso) de governança corporativa e conduta ética de seus administradores e acionistas.
Ainda que uma empresa se comunique com freqüência e de forma pró-ativa, destinando significativos orçamentos para esta ação, a falta de credibilidade de suas mensagens é um forte sinal de que os problemas vão além da ineficiência da comunicação ou de um programa de RI. Portanto, a credibilidade da empresa está diretamente relacionada com sua reputação. Um entendimento correto dos elementos que compõem essa reputação deveriam ser informações vitais para alimentar o plano estratégico das organizações, assim como seus processos de decisão, para o dia-a-dia (curto prazo) e ano após ano (longo prazo).
A reputação de uma empresa é, portanto, um ativo intangível que se reflete diretamente em todos os demais esforços e iniciativas - desde seu custo de capital até seu sucesso no recrutamento de talentos. A reputação e o nível de confiança são os primeiros pontos de referência quando investidores estão avaliando o preço de suas ações ou estudando potencias fusões.
Pode representar, ainda, um importante valor a ser descontado quando o inesperado acontece, não importando se é uma repercussão negativa na mídia, uma reclassificação no balanço (é bom lembrar da implementação do IFRS (veja quadro na página seguinte) que se avizinha e a estimada redução que provocará na lucratividade das empresas brasileiras) ou uma transação de fusão ou aquisição com resultados indesejados. Também faz a diferença em uma iniciativa hostil de acionistas minoritários ou, ainda, em desafios públicos envolvendo questões ambientais, sociais ou assuntos relacionados a movimentos sindicais.
Por outro lado, a reputação pode ser um grande catalisador na criação de valor em momentos de resultados favoráveis e iniciativas positivas, acelerando os negócios e potencializando resultados.
Função estratégica do Administrador
No Brasil, os aspectos tangíveis, em especial o financeiro, ainda são muito valorizados. Preocupações com a gestão de reputação, relações públicas com métricas de resultado ou branding ainda não é o foco da maior parte das organizações. Mas será. Sai na frente quem estiver capacitado para alinhar planos estratégicos com as atitudes e a comunicação, tanto nas relações institucionais, nas manifestações públicas, nas relações interpessoais e, especialmente, na linguagem utilizada nos websites, relatórios anuais, catálogos de produtos/serviços, revistas internas ou imprensa, entre outros meios.
Dentro do contexto corporativo, o Administrador tem uma função estratégica, pois deverá cuidar da sustentabilidade da organização a partir de uma gestão que combina uma multiplicidade de conhecimentos, tais como estratégia, finanças, operações, marketing, regulamentação, comunicação, governança, etc.. A habilidade para dominar gerenciar de maneira harmônica áreas aparentemente antagônicas é fundamental, mas ainda não o credencia para dominar a gestão da reputação corporativa. Estou certo que muitos profissionais possa atingir essa meta, mas faltam formação, técnicas e estratégias.
Em um mercado cada vez mais complexo e acirrado, no qual se lida com um grande volume de informações - o que prejudica a compreensão e assimilação das principais mensagens -, é indispensável dominar técnica da visão sistêmica, sustentabilidade e comunicação integrada para atender a uma multiplicidade de públicos estratégicos, cada vez melhor e mais bem informados, conscientes e exigentes. Mais que isso, tudo em tempo real. Não é à toa que o intangível passou a valer mais que o tangível. Então, estamos preparando administradores para vencer esse novo desafio?
_____________________________________________________________________
*Valter Faria é Administrador de Empresas, consultor e especialista em governança corporativa, estratégia de comunicação financeira e relações com investidores, com atividades acadêmicas pela Escola de Direito da FGV, FIA, BBS, Saint Paul Business Institute, IBMEC-RJ e Anhembi-Morumbi. Atua pelo IBGC, Abrasca, Apimec-SP e IBRI. Algumas das empresas atendidas incluem: Vale, Petrobras, Braskem, CPFL, Cemig, Usiminas, CSN, Telebrás, Telefônica, Telemar, TIM, Arcelor, CSN, Votorantim e Klabin, entre outras. E-mail: valterfaria@corpbrasil.com.br

Entre o Retorno e os Riscos

Publicamos artigo do Prof. Luiz Roberto Calado sobre Retorno e Risco. Boa Leitura!
Num cenário de juros baixos, os fundos multimercados são uma opção para quem busca maior rentabilidade - e se sujeita a um risco maior
Diante da baixa rentabilidade nas aplicações mais conservadoras, muitos investidores têm se perguntado onde aplicar seu dinheiro. Apesar de frustrante, é preciso dizer que não há opções para se obter um lucro extraordinário, sem assumir algum risco. Essa relação é um imperativo do mercado financeiro, ou seja, não é possível obter um alto retorno se não houver a contrapartida de assumir um certo grau de risco.
Entretanto, nos últimos anos, nós, brasileiros, nos tornamos muito avessos ao risco, porque nos acostumamos com taxas bastante atrativas em investimentos conservadores como, por exemplo, os fundos DI, atrelados ao Certificado de Depósito Interbancário (CDI).
Mas, no novo contexto da economia do país, de juros baixos, é necessário repensar o modo como investimos, de maneira a aproveitar a rentabilidade oferecida por investimentos um pouco mais arriscados do que estávamos acostumados. Para nossa sorte, apesar de a maioria dos investidores ainda preferir produtos mais seguros, o mercado financeiro brasileiro possui opções sofisticadas de aplicações financeiras, alinhadas ao que já existe nos países mais desenvolvidos.
O investimento em ações não é a única alternativa aos fundos DI, como pensam alguns. Há muitas outras opções interessantes que permitem diversificar o porftolio dos investimentos, assumindo alguns riscos. Uma dessas alternativas são os fundos multimercados, ainda pouco conhecidos. Essa categoria de aplicação recebeu atenção especial na recente reestruturação dos tipos de fundos, no mês de junho. A nova classificação da Associação Nacional dos Bancos de Investimentos (Anbid) deixou mais explícito quais riscos cada classe pode assumir.
Os fundos multimercados podem aplicar os recursos dos cotistas em produtos mais rentáveis do que os títulos do governo. Por esse motivo, geralmente possuem um retorno superior aos tradicionais fundos DI. Como não poderia deixar de ser, a esssa chance de um retorno superior está associado um risco proporcional.
Aos menos experientes na dinâmica dos investimentos vale deixar uma dica: experimente alocar nesses fundos uma parte dos recursos disponíveis. Poucos meses após a aplicação, o investidor terá condições de avaliar se está preparado, ou não, para possuir investimentos com um nível um pouco maior de risco.
Por fim, uma ressalva: para uma boa iniciação nos fundos multimercado, o ideal é começar investindo uma parcela pequena. De preferência, aplique um capital que não será utilzado em um horizonte de seis meses a um ano.
_____________________________________________________
*Luiz Roberto Calado é vice-presidente da Diretoria Executiva do Instituto Brasileiro de Executivos de Finanças - Ibef, de São Paulo - e gerente de certificação & educação de investidores da Anbid - Associação Nacional dos Bancos de Investimento www.comoinvestir.com.br