collapse

* Posts Recentes

Rust para micro-controladores – Uma série muito promissora... por blabla
[Hoje às 10:00]


BOLT – Aumento de performance C/C++ e Rust, GCC e LLVM com o hardware existente por blabla
[14 de Janeiro de 2022, 09:17]


Fita de LEDs RGB por dropes
[11 de Janeiro de 2022, 20:09]


OpAmp Rail2Rail, 30V ... e mais umas coisinhas por SerraCabo
[10 de Janeiro de 2022, 05:00]


How I Moved This 19000 lbs Machine por dropes
[08 de Janeiro de 2022, 20:41]


Projeto - Curso Engenharia Eletrotécnica por blabla
[08 de Janeiro de 2022, 10:59]


How I learned to love build systems por blabla
[07 de Janeiro de 2022, 12:22]


Circuito/esquema para Cob LED 5050 e input 230VAC? por jm_araujo
[06 de Janeiro de 2022, 11:11]


Repelente de Gatos por filjoa
[06 de Janeiro de 2022, 00:45]


Excelentes otimizações de performance LLVM 14 e em Rust. por blabla
[05 de Janeiro de 2022, 14:23]

Autor Tópico: GitHub Copilot - Possíveis implicações importantes.  (Lida 829 vezes)

0 Membros e 1 Visitante estão a ver este tópico.

Offline blabla

  • Mini Robot
  • *
  • Mensagens: 94
GitHub Copilot - Possíveis implicações importantes.
« em: 08 de Julho de 2021, 15:15 »
Boa tarde a todos,

sugiro-vos que vejam os primeiros 17 minutos desta ML News que vale bem a pena para todos os que programam.

[ML News] GitHub Copilot - Copyright, GPL, Patents & more ...


Cumprimentos,
João

Offline blabla

  • Mini Robot
  • *
  • Mensagens: 94
Re: GitHub Copilot - Possíveis implicações importantes.
« Responder #1 em: 03 de Agosto de 2021, 13:14 »
Vejam este vídeo que mostra bem na prática como o Github Copilot (Microsoft/OpenAI) pode ser usado e o nível de precisão que ele tem neste momento.

GitHub Copilot - First Look


Cumprimentos,
João

Offline blabla

  • Mini Robot
  • *
  • Mensagens: 94
Re: GitHub Copilot - Possíveis implicações importantes.
« Responder #2 em: 23 de Agosto de 2021, 14:22 »
Primeiro apareceu o Copilot ( GitHub / Microsoft / OpenAI ) a seguir o Codex ( OpenAI ) e agora a Google.

A Google acaba de publicar um paper em que fez um modelo de linguagem para geração de código em Python de 137 biliões de parâmetros, este obteve bons resultados e em que a performance cresce com o número de parâmetros.

Program Synthesis with Large Language Models
Jacob Austin, Augustus Odena, Maxwell Nye, Maarten Bosma, Henryk Michalewski, David Dohan, Ellen Jiang, Carrie Cai, Michael Terry, Quoc Le, Charles Sutton
https://arxiv.org/abs/2108.07732

Nota: Aqui é usado o bilião americano ou seja 137 milhares de milhões de parâmetros.

Cumprimentos,
João
« Última modificação: 23 de Agosto de 2021, 14:40 por blabla »