Retrospectiva do ano em AI Health e previsões para o próximo ano

the health strategist
institute & knowledge portal


for continuous health transformation 
and digital health — for all


Joaquim Cardoso MSc.


Founder and Servant Leader
Chief Research & Strategy Officer (CRSO), Editor in Chief and
Senior Advisor


January 2, 2024

Resumo de uma página:


Este é um resumo executivo do artigo “Um ano avançando com a IA e sem quebrar coisas. Nat Mach Intell 5 , 1337 (2023), publicado pela Nature e de autoria do Editor da Revista.


O ano de 2023 foi marcado por intensos debates sobre segurança e governança da IA. A proliferação de modelos poderosos de IA, especialmente na IA linguística e generativa, suscitou preocupações sobre o seu impacto social, riscos éticos e potenciais ameaças existenciais. O lançamento do ChatGPT pela OpenAI exemplificou as capacidades disruptivas de tais modelos, gerando discussões sobre a implantação responsável de Inteligência Geral Artificial (AGI). No entanto, este desenvolvimento também levantou preocupações sobre a utilização indevida da IA ​​para fins maliciosos, como a desinformação e o cibercrime.


Vários players, incluindo Meta, Baidu, Anthropic e Google, entraram na arena dos modelos avançados de IA, contribuindo para uma rápida evolução no campo. As preocupações intensificaram-se, levando a apelos a uma pausa nas extensas experiências de IA e a um maior foco na garantia de resultados positivos e riscos geríveis. Estas preocupações culminaram em iniciativas como a Cimeira de Segurança da IA ​​e a ordem executiva do Presidente dos EUA, Biden, que procuram estabelecer padrões, promover a transparência e monitorizar a segurança e a proteção da IA.


No entanto, surgiram críticas relativamente ao foco destas iniciativas, com debates sobre a ênfase nos riscos especulativos a longo prazo versus a abordagem dos riscos actualmente conhecidos, tais como preconceitos algorítmicos, exploração do trabalho, violação de direitos de autor e ataques deepfake. Os apelos a uma representação e ação regulatória mais amplas para abranger diversas perspetivas e abordar os atuais danos relacionados com a IA ganharam destaque.



Pontos principais, exemplos e estatísticas:


Crescentes preocupações de segurança de IA:


  • Mudança na agenda pública em direção aos riscos existenciais colocados pela IA não controlada.
  • Preocupações expressadas por líderes proeminentes da IA, como Yoshua Bengio e Geoffrey Hinton.

Desenvolvimento rápido de modelos avançados de IA:


  • Emergência de poderosos modelos generativos de IA (por exemplo, ChatGPT, LLaMA, ERNIE, Claude, Gemini).
  • Lançamento do GPT-4, categorizado como AGI ’emergente’ em uma pesquisa do Google DeepMind.

Iniciativas e Respostas:


  • Apela a uma pausa nas grandes experiências de IA para garantir riscos geríveis.
  • Críticas à Cúpula de Segurança da IA ​​por focar excessivamente nos riscos de longo prazo e confiar na autorregulação da indústria.
  • Ordem executiva do presidente dos EUA, Biden, sobre padrões de segurança e proteção de IA.

Preocupações sobre como lidar com os danos atuais:


  • Exemplos de danos atuais relacionados com a IA incluem discriminação algorítmica, exploração laboral, violação de direitos de autor e ataques deepfake.
  • Recomendações de especialistas que enfatizam a necessidade de abordar riscos emergentes e conhecidos.


Conclusões e Recomendações:


À medida que o debate sobre a segurança da IA ​​continua em 2024, é crucial dar prioridade a diversas perspetivas e ações regulamentares para abordar os danos atuais e potenciais dos sistemas avançados de IA . Isto inclui garantir a representação para além dos grandes interesses tecnológicos e abranger uma gama global de vozes na determinação das agendas de IA e na implementação de regulamentos.


Nature article link: https://www.nature.com/articles/s42256-023-00782-7

Total
0
Shares
Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Related Posts

Subscribe

PortugueseSpanishEnglish
Total
0
Share