Cadastre-se gratuitamente nas nossas newsletters

A Apple decidiu restringir o uso do ChatGPT e outras ferramentas de inteligência artificial externas por seus funcionários devido a preocupações com a segurança de dados confidenciais, segundo o Wall Street Journal.

A empresa também instruiu seus funcionários a não utilizarem o Copilot do GitHub, propriedade da Microsoft, que automatiza a criação de código de software.

POR QUÊ? A Apple teme que os funcionários que utilizam esses programas possam compartilhar inadvertidamente dados confidenciais, o que poderia auxiliar concorrentes no treinamento de seus próprios sistemas de IA.

A empresa está desenvolvendo seu próprio modelo de linguagem como medida de precaução contra vazamentos de dados. Em mar.2023, o ChatGPT da OpenAI caiu temporariamente devido a um bug que expunha títulos do histórico de chat de alguns usuários.

  • A abordagem cautelosa da Apple em relação à IA está alinhada com ações recentes de outras organizações, como a Amazon, que instruiu seus funcionários a utilizarem ferramentas internas de IA em vez do ChatGPT.

LIDERANÇAS. Os esforços de IA da Apple são liderados por John Giannandrea, ex-executivo do Google e atual vice-presidente da Apple para aprendizagem de máquina e estratégias de IA.

Tim Cook, CEO da Apple, enfatizou em uma reunião recente a necessidade de uma abordagem cuidadosa e ponderada em relação à IA, reconhecendo tanto os desafios quanto o potencial emocionante da tecnologia, afirmou o WSJ.

Via Ars Technica e Wall Street Journal (em inglês)

Texto Sofia Schurig
Edição Laís Martins
AppleChatGPTInteligência Artifical
Venha para o NúcleoHub, nossa comunidade no Discord.