Big Data aplicado à gestão de ativos: como conseguir um plus de rentabilidade?

foto
Funds People

Muito se tem vindo a falar das aplicações comerciais das tecnologias associadas ao big data, consistentes, geralmente, no processo de grandes volumes de dados para extrair informação competitiva. Mas que implicações podem ter realmente sobre a gestão de ativos? E – tal como questionam muitos investidores – podem obter-se resultados tangíveis na forma de rentabilidades adicionais? Os especialistas da Goldman Sachs AM têm sido capazes de dar uma resposta afirmativa a esta pergunta, e têm vindo a demonstrá-lo através do sofisticado processo de investimento quantitativo que aplicam à sua gama de fundos GS CORE Equity.

Trata-se de uma gama de fundos de ações com um amplo track record, que tem como referência índices da família MSCI. Especialistas da entidade sublinham que, apesar de investirem em ações, contam com um enfoque muito conservador, com um tracking error que vai desde 2,5% do produto que investe em ações norte-americanas, aos 5% que investem em ações emergentes. Da Goldman Sachs explicam que o investidor deve pensar nestes produtos como uma aposta de valor relativo face ao índice, se se comparar com outros fundos que investem nesta classe de ativos.

A diversificação também é chave: as carteiras dos fundos desta gama costumam contar com cerca de 150 posições, com ponderações entre 1% e os 2%. O tamanho das posições ajusta-se constantemente (cada carteira é testada uma vez a cada seis dias), de tal forma que a rotação de ativos se situa entre 150% e 190% anual. As carteiras são neutrais por estilo e sector, o que permite aos GS Core Equity ter uma correlação muito baixa relativamente a outros concorrentes.

Big data aplicado à construção das carteiras

O Big data é chave na seleção de títulos e na determinação das suas distintas ponderações. Javier Rodríguez-Alarcón explica ao detalhe a sua aplicação na construção das carteiras da gama. “A análise convencional dos fundamentais é insuficiente, existe a necessidade de novos processamentos”, comenta sobre a pertinência do processamento de grandes quantidades de dados. “Se se é capaz de processar e entender os dados mais rapidamente, obtem-se uma vantagem competitiva”, acrescenta.

Contudo, a força do modelo não seria possível sem a grande qualificação da equipa gestora, que conta com uma experiência de 25 anos. A equipa foi fundada pelo ex-responsável de riscos da Goldman Sachs, Robert Litterman, também conhecido pela co-autoria do modelo Black Litterman de construção de carteiras. Para além de analistas e gestores, na equipa trabalham engenheiros e académicos, pois existe o objetivo de incorporar profissionais  que possam fornecer elementos novos e diferenciadores  no modelo de análise num mercado cada vez mais eficiente e competitivo. Um exemplo desta filosofia é a inclusão no modelo do ‘processamento da linguagem natural’,  que consiste na deteção da mudança de linguagem que empregam os analistas nos seus relatórios para poderem antecipar uma mudança de recomendação.

O modelo de análise que tem vindo a desenvolver a equipa da Goldman Sachs AM é composta por dois vectores: empresas com os fundamentais mais fortes e empresas que contam com maior suporte vindo do sentimento dos investidores. “O big data serve para seleccionar os dados tradicionais e outros que não estejam estruturados”, comenta Rodríguez-Alarcón. O modelo inclui até 600 variáveis diferentes, mas a equipa é capaz de criar novas métricas (uma média de quatro ano ano) para ir adaptando-o à evolução da sociedade e da economia. Um exemplo: em anos anteriores estudava-se o tráfico de carros nos estacionamentos de Wal-Mart para determinar a afluência  de compradores; ao popularizarem-se as compras pela internet, eliminou-se este ‘sinal’ e incorporou-se ao modelo os dados sobre o tráfico de páginas web em empresas de comércio online como a Amazon.

O processamento de dados serve para filtrar valores de um universo, de acordo com os critérios de momentum, valorização e rendibilidade das empresas do universo. Dentro da categoria “momentum” figuram, por exemplo, estudos da evolução das recomendações dos analistas, a análise das relações entre empresas e as ligações na sua cadeia de provedores ou as tendências em ciclos económicos a nível regional ou global. Na parte da valorização observam-se métricas fundamentais como o PER ou o valor contabilístico, assim como outras métricas específicas de cada indústria, a previsão de mudanças nessas métricas e a monitorização da evolução da recompra de ações (share buybacks). Finalmente, os membros da equipa determinam se uma empresa oferece uma rendibilidade convincente ou não, através de análises – entre outros factores – das margens de lucros, da relação entre lucros e dinheiro ou decompondo a valorização por segmentos de negócio de acordo com áreas geográficas.

A vantagem do Big Data é que se pode analisar um universo muito amplo de forma diária e permite adaptar os modelos de valorização a distintas formas de negócio por setor”, indica o gestor. Também destaca, em último lugar, a sua validade como uma forma de antecipar mudanças brusca do mercado: “O Big Data ajuda a prever a extensão de uma correção gracas à incorporação de dados sobre o momento e o sentimento”, conclui Rodríguez-Alarcón.

Graças a esta aplicação de modelo quantitativo, os seis fundos da gama conseguiram situar-se no primeiro quartil da sua categoria a três e a cinco anos. Além disso, situam-se no primeiro quartil a um ano os seguintes fundos: GS Growth & Emerging Markets CORE Equity, GS Global CORE Equity e o GS Europe Core Equity. Os outros três (GS Global Small Cap CORE, GS US Small Cap CORE e o GS US CORE Equity) encontram-se no segundo quartil a um ano. O fundo que foi capaz de gerar mais retornos adicionais a um ano foi o GS Europe CORE, com 821 pontos base.