X lançou uma atualização significativa no seu assistente AI Grok, restringindo a capacidade da ferramenta de processar e analisar certos tipos de imagens. Especificamente, a IA já não pode gerar ou permitir a remoção de roupas de fotos de indivíduos reais.
Esta medida reflete o foco crescente da indústria no desenvolvimento responsável de IA e na moderação de conteúdo. A restrição parece abordar preocupações de privacidade e consentimento que se tornaram cada vez mais importantes à medida que as capacidades de processamento de imagens por IA avançam.
A atualização demonstra como as principais plataformas estão equilibrando inovação com limites éticos. À medida que o Grok continua a evoluir como uma ferramenta de IA conversacional, tais ajustes de política ajudam a estabelecer limites mais claros em torno de casos de uso sensíveis.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
25 gostos
Recompensa
25
10
Republicar
Partilhar
Comentar
0/400
AirdropHunterWang
· 9h atrás
Já era de se fazer algo, aqueles softwares de IA para tirar roupa realmente são absurdos... Mas será que, ao mudar assim, vamos precisar de VPN novamente?
Ver originalResponder0
StableBoi
· 17h atrás
grok voltou a auto-censurar-se, esta tática de manipulação moral está mesmo a ficar cada vez mais irritante... Mas a verdade é que a funcionalidade de tirar roupa devia mesmo ser removida, os problemas de privacidade não aguentam mais
Ver originalResponder0
LuckyBlindCat
· 01-17 11:08
Agora é mesmo um entrave, nem as roupas geradas por IA funcionam, então para que serve jogar?
Ver originalResponder0
PensionDestroyer
· 01-17 08:03
grok voltou a aprontar... Agora nem deixar tirar a roupa, quando é que a IA ficou tão séria assim?
Ver originalResponder0
LucidSleepwalker
· 01-15 09:36
Está bem, já devia ter resolvido essa porcaria há muito tempo, se continuar assim, não vai sobrar nada
Ver originalResponder0
JustHereForAirdrops
· 01-15 09:32
grok esta jogada até que não está má, finalmente há um pouco de consciência. Mas o verdadeiro problema é quando é que as outras plataformas vão conseguir acompanhar...
Ver originalResponder0
OnchainUndercover
· 01-15 09:26
Espera aí, a função de despir roupas desapareceu? Agora aqueles que querem aproveitar a oportunidade terão que mudar de estratégia.
Ver originalResponder0
MEV_Whisperer
· 01-15 09:24
Ai, mais um AI a comportar-se de forma obediente e humilde, já devia ter sido assim para evitar problemas
Ver originalResponder0
CommunityJanitor
· 01-15 09:19
ngl esta operação está um pouco atrasada, já devia ter sido controlada há algum tempo
Ver originalResponder0
ShadowStaker
· 01-15 09:10
Honestamente, demoraram tempo suficiente. A verdadeira questão é se isto são realmente limites ou apenas teatro para evitar a pressão regulatória. De qualquer forma, não resolve a questão fundamental de como estes modelos são treinados em primeiro lugar—garbage in, garbage out também se aplica à ética, na minha opinião.
X lançou uma atualização significativa no seu assistente AI Grok, restringindo a capacidade da ferramenta de processar e analisar certos tipos de imagens. Especificamente, a IA já não pode gerar ou permitir a remoção de roupas de fotos de indivíduos reais.
Esta medida reflete o foco crescente da indústria no desenvolvimento responsável de IA e na moderação de conteúdo. A restrição parece abordar preocupações de privacidade e consentimento que se tornaram cada vez mais importantes à medida que as capacidades de processamento de imagens por IA avançam.
A atualização demonstra como as principais plataformas estão equilibrando inovação com limites éticos. À medida que o Grok continua a evoluir como uma ferramenta de IA conversacional, tais ajustes de política ajudam a estabelecer limites mais claros em torno de casos de uso sensíveis.