- Home
- Tecnologia
- Meta pode parar de desenvolver ...

Recentemente a Meta liberou um documento que mostra que ela pode parar de desenvolver IA caso ela apresentem grandes riscos. Nesse mesmo documento, ela explica sobre a classificação de riscos das IAs e quais são as medidas que serão tomadas, de acordo com o nível de risco. No entanto, para que você não tenha que ler esse documento, nesse post nós explicaremos tudo sobre a situação até agora.
Quem é a Meta?
Em suma, a Meta é uma empresa de tecnologia social que desenvolve plataformas e aplicativos que conectam as pessoas. Seus aplicativos mais conhecidos são o Facebook, Instagram, WhatsApp e o Messenger. Sendo assim, ela foi fundada em 2004 pelo Mark Zuckerberg.
Além disso, há algum tempo a Meta vem investindo em pesquisas e desenvolvimento de IAs. A equipe de pesquisa de IA da Meta tem como foco principal alcançar a inteligência avançada de máquina (AMI) e, ao conseguir isso, usá-la para auxiliar em novos serviços e produtos que beneficiem a todos. Ademais a isso, a Meta também integrou aos seus aplicativos sua própria assistente de inteligência artificial, a Meta AI.
Meta pode parar de desenvolver IA caso tenha grandes riscos
Visão geral
Recentemente, a Meta divulgou um documento chamado “Frontier AI Framework”, ele estabelece algumas diretrizes para o desenvolvimento das IAs. Assim, nesse documento a Meta declara que entende que algumas aplicações pela IA podem representar grandes riscos à diversas áreas, como a cibersegurança por exemplo. Desse modo, ela afirma que caso ela identifique riscos críticos relacionados a uma IA específica, ela vai interromper o seu desenvolvimento. Assim, evitando possíveis consequências catastróficas.
Além disso, caso o sistema de uma IA apresente um alto nível de risco, a Meta pode optar por não lançar essa IA. Dessa forma, a Meta garante a implementação segura e responsável de seus produtos nos sistemas.
Como é a classificação de risco das IAs da Meta?
Segundo o “Frontier AI Framework”, a Meta adotou uma classificação para os seus modelos de IA. Essa classificação tem as suas principais classificações, e essas classificações são Alto e o Crítico. Essas classificações possuem as seguintes características:
- Alto risco – Se uma IA é considerada de “alto risco”, isso significa que essa IA pode facilitar a execução de ações que são potencialmente perigosas, como por exemplo, ataques cibernéticos e até a criação de possíveis armas biológicas. Entretanto, essa IA não torna essas ações totalmente realizáveis. Ou seja, a IA ajuda indiretamente na execução de atividades perigosas, mas essas atividades ainda dependem de outros fatores. Sendo assim, a Meta só lançará a IA quando esse tipo de risco não existir.
- Risco crítico – Se uma IA é classificada como “risco crítico”, isso significa que a IA possibilita a execução de ações com potencial catastrófico diretamente. Além disso, a IA também não tem medidas que impeçam qualquer potencial catástrofe. Ou seja, a IA ajuda diretamente na execução de atividades catastróficas e não tem medidas contra essa catástrofe. Assim, a Meta interrompe o desenvolvimento dessa IA para avaliar medidas que impeçam possíveis catástrofes.
Como a Meta avalia os riscos?
Diversos especialistas, tanto internos quanto externos, avaliam os riscos das IAs e, logo depois disso, os executivos do alto escalão da Meta tomam a decisão final do nível do risco. Isto é porque a mesma entende que que o campo de avaliações de risco da IA não está desenvolvido o suficiente para fornecer métricas quantitativas precisas precisas. Assim, reforçando a necessidade de uma abordagem mais colaborativa, precisa e cautelosa.
Desse modo, a Meta se baseia na opinião de vários especialistas, e garante uma análise maior sobre todos os potenciais riscos de tal sistema de IA.
De acordo com o nível de risco, o que a Meta faria?
Em relação a uma IA de alto risco, a Meta não liberaria tal IA ao público e limitaria o seu acesso a uma pequena equipe de pesquisadores. Assim, buscando evitar qualquer tipo de vazamento. Além disso, durante esse tempo, vão ser feitos diversos testes para diminuir todos os riscos identificados. Desse modo, tentando reduzir o nível de risco da IA para um nível médio/moderado, assim a IA não poderia ser usada para ajudar ou facilitar ações perigosas. No entanto, se tudo ainda não fosse o suficiente, a IA continuaria limitada até que achassem uma solução para os riscos.
Já no caso de uma IA de risco crítico, a Meta suspenderia seu desenvolvimento na hora e iniciaria uma análise para verificar se tem algum tipo de barreira técnica que pode ser implementada para melhorar a segurança. Nesse caso, o acesso seria ainda mais restrito e só estaria disponível para um determinado grupo de cientistas. Além de diversas medidas de segurança rigorosas para evitar possíveis vazamentos e invasões.
Desse modo, a Meta reforça o seu compromisso em desenvolver IAs de forma responsável. Assim, buscando evitar o uso indevido da sua tecnologia, a Meta lança apenas modelos seguros para as pessoas. Além disso, também se mostra comprometida a parar de desenvolver IA caso ela apresente grandes riscos.
meta vai para de desenvolver ia oque a meta vai fazer se ia se tornar perigosa porque a meta pode parar de desenvolver ia porque a meta vai parar de desenvolver ia







