Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
A IA em Conformidade Não é uma Caixa Preta — É um Teste de Responsabilidade: Entrevista com Roman Eloshvili
Roman Eloshvili é fundador da ComplyControl, uma startup de conformidade e detecção de fraudes alimentada por IA para instituições financeiras.
Descubra as principais notícias e eventos do fintech!
Inscreva-se na newsletter do FinTech Weekly
Lido por executivos do JP Morgan, Coinbase, Blackrock, Klarna e mais
O que a IA em Conformidade Está Realmente Testando: Tecnologia, ou Nós?
Nos serviços financeiros, conformidade não é mais apenas uma função. É um ponto de pressão ativo—onde regulamentação, risco e operações colidem. À medida que tecnologias de IA são introduzidas nesse espaço, uma questão continua surgindo: quanto podemos realmente automatizar, e quem permanece responsável quando algo dá errado?
A atração da IA na detecção de fraudes e conformidade é fácil de entender. Instituições financeiras enfrentam expectativas crescentes para processar grandes volumes de dados, responder a ameaças em evolução e cumprir regulamentos em mudança—tudo sem comprometer velocidade ou precisão. A automação, especialmente quando impulsionada por aprendizado de máquina, oferece uma maneira de reduzir a carga operacional. Mas também levanta preocupações mais profundas sobre governança, explicabilidade e controle.
Essas tensões não são teóricas. Elas estão se desenrolando em tempo real, enquanto empresas financeiras implantam modelos de IA em funções tradicionalmente desempenhadas por analistas humanos. Nos bastidores, novos riscos estão surgindo: falsos positivos, pontos cegos em auditorias e decisões algorítmicas que permanecem opacas tanto para usuários quanto para reguladores.
Ao mesmo tempo, profissionais de conformidade estão sendo convidados a mudar de papéis. Em vez de inspecionar manualmente cada transação, eles agora supervisionam as ferramentas que fazem isso. Essa mudança—de executor para avaliador—exige não apenas novas habilidades técnicas, mas um senso mais forte de responsabilidade ética e procedimental. A IA pode escalar análises de dados. Pode sinalizar inconsistências. Mas não consegue explicar completamente intenções, interpretar contextos ou absorver culpa.
Compreender esses limites é fundamental. E poucas pessoas estão melhor posicionadas para explorá-los do que Roman Eloshvili, fundador da empresa britânica de tecnologia de conformidade ComplyControl. Seu trabalho se situa exatamente na interseção de risco, automação e supervisão—onde eficiência algorítmica encontra escrutínio regulatório.
Com mais de uma década na área, Roman viu de perto como as equipes de conformidade estão evoluindo e como a IA está remodelando tanto seus fluxos de trabalho quanto suas responsabilidades. Ele argumenta que a promessa da IA não está em eliminar papéis humanos, mas em remodelá-los—trazendo maior clareza sobre o que as máquinas devem fazer e o que os humanos ainda precisam assumir.
Essa mudança exige mais do que melhorias técnicas. Ela exige um realinhamento cultural em torno da responsabilidade. Sistemas transparentes, processos auditáveis e responsabilidade humana claramente atribuída não são mais apenas recursos—são o padrão mínimo. Quando a IA é introduzida em infraestruturas críticas, ela não resolve apenas problemas. Ela introduz uma nova categoria de decisões que requerem gestão ativa e estratégica.
Nesta conversa para o FinTech Weekly, Roman oferece uma visão fundamentada do que é necessário para integrar a IA de forma responsável na conformidade e na prevenção de fraudes. Sua perspectiva não apresenta a automação como uma inevitabilidade, mas como uma escolha—que exige julgamento humano contínuo, clareza operacional e disposição para fazer perguntas difíceis sobre onde realmente reside a confiança.
Temos o prazer de compartilhar seus insights em um momento em que muitos no fintech estão perguntando não se devem adotar IA—mas como fazê-lo sem perder de vista os padrões que fizeram os sistemas financeiros funcionarem desde o início.
1. Você construiu uma carreira na interseção de conformidade e tecnologia. Pode recordar o momento em que percebeu que a IA poderia mudar fundamentalmente a forma como a gestão de riscos é feita?
Não diria que foi apenas um momento específico que mudou tudo. Na verdade, foi um processo gradual. Passei uma boa parte da minha carreira trabalhando com bancos europeus estabelecidos, e uma coisa que percebi constantemente é que muitos deles estavam bastante atrasados em relação às soluções de banking digital. O contraste era especialmente evidente em comparação com hubs de fintech mais avançados.
Há alguns anos, quando o tema do desenvolvimento de IA voltou a ganhar destaque, naturalmente fiquei curioso e pesquisei sobre o assunto. E ao estudar a tecnologia e seu funcionamento, percebi que a inteligência artificial tinha potencial para mudar drasticamente a forma como os bancos lidam com sua conformidade, colocando-os mais em pé de igualdade com fintechs modernas e mais ágeis.
Foi isso que me levou a lançar minha empresa em 2023. A complexidade da conformidade e gestão de riscos só aumenta a cada ano. Diante dessa realidade, nossa missão é simples: oferecer soluções alimentadas por IA às empresas financeiras e ajudá-las a lidar com esses desafios crescentes de forma mais eficaz.
2. Do seu ponto de vista profissional, como a função de especialistas humanos evoluiu à medida que as ferramentas de IA se tornaram mais avançadas em conformidade e detecção de fraudes?
Antes de mais nada, deixe-me abordar uma coisa logo de início. Existe uma preocupação comum em muitos campos se a IA vai substituir os trabalhadores humanos. E, no que diz respeito a profissionais de conformidade e risco, minha resposta é não—pelo menos, não tão cedo.
Embora a inteligência artificial já esteja transformando nossa indústria, ela ainda está longe de ser infalível. Assim, a participação humana continua sendo um fator essencial. As regulamentações de conformidade mudam constantemente, e alguém precisa ser capaz de assumir a responsabilidade quando os sistemas falham ou cometem erros. No estágio atual de desenvolvimento, a IA ainda tem dificuldades em explicar suas decisões de forma clara, então não está pronta para ficar sozinha. Especialmente em um campo onde confiança e transparência são fundamentais.
Dito isso, a IA está ativamente facilitando os processos de conformidade. Por exemplo, dependendo da configuração, sistemas de IA podem agora sinalizar transações suspeitas ou até bloqueá-las temporariamente enquanto solicitam verificações adicionais. Não há necessidade de humanos reais revisarem cada detalhe manualmente, a menos que algo realmente pareça estranho. E, à medida que esses sistemas evoluem, continuarão a reduzir a necessidade de trabalho manual, permitindo que as equipes se concentrem mais em tarefas complexas que realmente exigem o toque humano.
Acredito que veremos surgir um modelo híbrido, onde especialistas em conformidade também se tornarão cada vez mais proficientes no uso de ferramentas de IA. Serão os responsáveis por implementar e manter os sistemas de IA, enquanto a própria IA simplificará seu trabalho ao interpretar dados complexos e fornecer recomendações. No entanto, o julgamento final continuará a ser dos humanos.
3. Ao trabalhar com IA em áreas sensíveis como conformidade financeira, como você abordou pessoalmente o desafio de manter a confiança e a responsabilidade na tomada de decisões?
Claro. Como já mencionei, quando você usa IA na conformidade, a confiança é crucial.
Por isso, construímos nossos sistemas de IA para serem totalmente transparentes. Eles não operam como uma “caixa preta”—toda recomendação que o sistema faz é baseada em regras e dados rastreáveis. Mantemos um registro completo de como cada decisão é tomada, para que possa ser totalmente explicada. Essa prática já se mostrou incrivelmente valiosa ao lidar com reguladores.
A decisão final sempre cabe ao responsável pela conformidade. A IA simplesmente oferece uma sugestão bem fundamentada, que o humano pode verificar facilmente e decidir se aprova ou rejeita.
4. Sua experiência abrange mais de 10 anos. Como sua mentalidade sobre automação e supervisão humana mudou ao longo de sua carreira, especialmente agora com a IA se tornando mais autônoma?
Com certeza. Falando de forma mais ampla sobre o estado da adoção de IA, quanto mais essa tecnologia avança, mais autonomia podemos gradualmente permitir—desde que ela seja rigorosamente testada e continue a se mostrar confiável.
Mas o que está mudando ainda mais é o papel do especialista humano nessa equação. Em vez de microgerenciar cada caso, os responsáveis pela conformidade estão agora desempenhando cada vez mais o papel de supervisores estratégicos. Podem revisar lotes inteiros de casos semelhantes rapidamente, validar o desempenho do sistema e ajustar modelos com base nos resultados.
Em outras palavras, o papel de fato dos responsáveis pela conformidade está mudando de fazer o trabalho manual para gerenciar sistemas de IA enquanto eles fazem o trabalho por si só.
5. Trabalhar com IA na gestão de riscos envolve navegar por questões éticas complexas. Como você desenvolveu pessoalmente uma estrutura para tomar decisões responsáveis ao projetar ou implementar soluções baseadas em IA?
Baseamos nossa abordagem em duas ideias principais: supervisão clara e princípios de IA Responsável. Cada modelo que usamos tem alguém designado como responsável por ele. Avaliações de risco, revisões de desempenho e verificações de conformidade são feitas regularmente.
Também garantimos que nossos sistemas sejam auditáveis. Se o algoritmo toma uma decisão, esse processo pode ser revisado e verificado. Essa transparência é uma parte central do nosso compromisso com o desenvolvimento responsável de IA.
6. Em sua trajetória, qual foi a lição profissional mais difícil que você aprendeu sobre os limites—ou os riscos—de confiar excessivamente na automação em áreas críticas como prevenção de fraudes?
Uma lição que definitivamente precisamos ter em mente é que mesmo modelos bem treinados podem ainda “alucinar”—errar de maneiras sutis, mas graves.
A IA pode deixar passar esquemas complexos de fraude, ou pode disparar muitos alertas falsos. É exatamente por isso que combinar IA com expertise humana é tão importante—os humanos trazem julgamento fluido e são melhores em avaliar ética e o contexto geral de formas que a IA não consegue.
O equilíbrio entre os dois promete resultados melhores e mais confiáveis. A IA pode ser usada para cobrir o volume enorme de tarefas e aliviar sua complexidade, enquanto as pessoas mantêm o nível adequado de precisão e confiança.
7. Para jovens profissionais que ingressam na conformidade, gestão de riscos ou desenvolvimento de IA hoje, quais princípios ou hábitos pessoais você recomendaria cultivar para ter sucesso e se adaptar a um ambiente tão rapidamente mutável?
Primeiro e mais importante: nunca pare de aprender. O progresso tecnológico não tem botão de “pausa”, e você precisa acompanhar ou ficará para trás. Não há meio-termo aqui.
Segundo, pense de forma ampla. Com o avanço da IA, as linhas entre papéis estão se borrando—tecnologia, finanças e regulamentação estão se misturando. Estou convencido de que ter um conjunto de habilidades diversificado e uma mente aberta serão as características definitivas para futuros profissionais na área.
Terceiro—e uma continuação natural dos dois anteriores—seja adaptável. A mudança é constante, e a capacidade de ajustar-se rapidamente será uma grande vantagem para você.
E por fim, desenvolva habilidades de comunicação fortes e aprenda a trabalhar em equipe. Como já discutimos, a conformidade está na interseção de negócios, tecnologia e direito. Assim, ser capaz de trocar de marcha e conversar com pessoas de todos esses mundos será uma habilidade valiosa para adquirir.