LusoRobótica - Robótica em Português
Robótica => Projectos de robótica => Projectos em desenvolvimento => Tópico iniciado por: Samy74 em 21 de Agosto de 2013, 11:04
-
Boas
Vou deixar aqui um vídeo do robô em que estou a trabalhar neste momento, depois faço uma descrição dos componentes que estão a ser utilizados no bicho. Neste momento funciona por controlo remoto, mas estou a planear colocar alguma inteligência no futuro.
Self balancing robot updated version (http://www.youtube.com/watch?v=YLNWpxRAM1Y#ws)
Já sofreu mais alguma alterações desde este vídeo, mas ainda não tirei fotos.
Espero que gostem, comentem, critiquem.
-
Está muito porreiro :)
Dá mais informações, tipo que motores usas que controlo fazes, etc :p
-
Está muito porreiro :)
Dá mais informações, tipo que motores usas que controlo fazes, etc :p
Estou a usar motores de passo, comprei no ebay como nema17, não tenho aqui a referência certa. É controlado por um PIC24FJGA002. Para o equilíbrio estou a utilizar um giroscópio (Murata enc03) e um acelerómetro (MMA7361L) combinados de forma a ter um ângulo. O controlo é com PID.
-
Muito bom mesmo! O robo está mesmo estável, só falta vê-lo a ultrapassar obstáculos :D
Como é feito o tuning neste caso? Vais alterandos os valores do PID tipo tentativa erro?
-
Muito bom mesmo! O robo está mesmo estável, só falta vê-lo a ultrapassar obstáculos :D
Como é feito o tuning neste caso? Vais alterandos os valores do PID tipo tentativa erro?
Neste vídeo aqui, mais antigo, podes ver a andar no paralelo. Consegue passar alguns obstáculos desde que não sejam muito altos. Sim, o o tunning é feito por visualização, consigo alterar os ganhos em tempo real e vou vendo como reage.
Self balancing robot outdoor run (http://www.youtube.com/watch?v=TW8uvDtTh7U#ws)
-
Parabéns!
-
Boas,
Obrigado pelos comentários, aqui ficam uma fotos para ver mais em detalhe a máquina. Como está em desenvolvimento estou sempre a fazer alterações e peças novas. O próximo passo é dar-lhe alguma inteligência, para isso vou utilizar um raspberry pi. Ainda vai demorar algum tempo até estar a funcionar com este mas com o tempo vai-se fazendo. Espero que gostem.
(https://dl.dropboxusercontent.com/u/5042323/rs4/20130822_103703.jpg)
(https://dl.dropboxusercontent.com/u/5042323/rs4/20130822_103742.jpg)
(https://dl.dropboxusercontent.com/u/5042323/rs4/20130822_104116.jpg)
(https://dl.dropboxusercontent.com/u/5042323/rs4/20130822_104121.jpg)
(https://dl.dropboxusercontent.com/u/5042323/rs4/20130822_104127.jpg)
(https://dl.dropboxusercontent.com/u/5042323/rs4/20130822_104140.jpg)
-
Boas, bom trabalho!
Já agora onde arranjaste as placas de carbono?
Abraço
-
Boas, bom trabalho!
Já agora onde arranjaste as placas de carbono?
Abraço
Obrigado.
As placas de fibra de carbono arranjas facilmente no ebay, depois é só cortar como quiseres.
-
boas
que tipo de bateria usas e onde compras-te?
continuacao de um bom trabalho
-
Samy74,
está excelente, bom trabalho!
Como costumas cortar as placas de carbono? CNC? com que tipo de fresa?
O único ponto que posso sugerir melhorares em termos de hardware, são as caixas de junção :) se conseguires outra solução ainda fica mais PRO.
Cumprimentos, Mauro.
-
tiveste algum cuidado nas dimensoes na estrutura ?
Gostaria de fazer em acrilico.
-
Obrigado pelos comentários
andnobre,
A bateria é uma LiPo 3S de 2000 mAh, comprei no ebay. Desenhei a estrutura no solidworks para ter uma noção das dimensões e da distribuição dos componentes. Nem tudo foi previsto, algumas coisas alterei à medida que fui evoluindo a estrutura.
Mauro,
Infelizmente não tenho uma CNC (bem gostava), corto tudo à mão com um dremel e depois acerto com um taco e lixa até estar das dimensões esperadas. Desculpa mas não percebi ao que te referes com caixas de junção...
(https://dl.dropboxusercontent.com/u/5042323/rs4/rs4.jpg)
-
Era possivel fazer um inventario do teu robo?
estive a ver uns giroscopios e acelerometros na sparkfun e so aparece o chip e eu queria ver o modulo.O acelerometro vou usar um comando da wii um nunchuk e retirar a placa do sensor.
A estrutura estou a pensar em fazer em acrilico, motores uso dos servos ja convertidos para motores DC.
arduino como cerebro do robo, controlo do motores vou usar lm232.
bem tambem tenho visto robos deste tipo a usar sensores IR e ultra som para ter o robo em posicao vestical sem usar giroscopios e acelerometros (nao tenho a certeza deste ultimo).
gostaria de uma opiniao sff.
-
queria dizer o l293d controlador dos motores
-
IMU:
http://www.ebay.com/itm/10DOF-axis-IMU-L3G4200D-ADXL345-HMC5883L-BMP085-3V-5V-compatible-sensor-module-/141026737527?pt=LH_DefaultDomain_0&hash=item20d5d93d77 (http://www.ebay.com/itm/10DOF-axis-IMU-L3G4200D-ADXL345-HMC5883L-BMP085-3V-5V-compatible-sensor-module-/141026737527?pt=LH_DefaultDomain_0&hash=item20d5d93d77)
Mais barato não arranjas, só um dos chips custa perto de 10€, fora os outros todos, passivos, pcb's, desenhar placas.
-
À partida qualquer IMU (giroscópio + acelerómetro) será válido para este efeito, neste caso para o equilíbrio só necessitas de um eixo. Existem módulos no ebay, é só procurar.
Já vi no tube alguns feitos com sensor de infravermelhos mas não me parecem tão estáveis, além de que ficas mais limitado porque não dá para andar em planos inclinados.
Os servos modificados são bastante lentos, assim comprometes a estabilidade do sistema, é necessário responder rápido caso contrário tomba. Deve funcionar mas com uma perturbação alta vai cair.
-
Muito boa qualidade de trabalho ai!
Duvida: nao tinha ideia que steppers tivessem tanta velocidade/forca... esses sao especiais ou fazes algum drive especial? Como 'e com os consumos?
Tens videos do teu microrato ja agora? :P
-
Muito boa qualidade de trabalho ai!
Duvida: nao tinha ideia que steppers tivessem tanta velocidade/forca... esses sao especiais ou fazes algum drive especial? Como 'e com os consumos?
Tens videos do teu microrato ja agora? :P
Olá
São motores de passo normais, não há nada de especial neles. Aqui fica um vídeo do meu microrato
Robótica 2008 - Aveiro Micro Rato (http://www.youtube.com/watch?v=ver-jZk59Y0#)
-
Boas,
Tenho feito alguns progressos com o Raspberry Pi para incluir neste projecto, é praticamente a primeira vez que trabalho em Linux, e estou contente com os resultados até agora. Já tenho a câmara a funcionar com o OpenCV que foi o que deu mais trabalho. Estou a fazer os suportes para colocar a câmara no robô e depois começo a fazer código para juntar tudo. Fica aqui o vídeo para darem uma vista de olhos :)
www.youtube.com/watch?v=EEajP-dGTLY (http://www.youtube.com/watch?v=EEajP-dGTLY#)
-
Já fiz mais alguns progressos com o Raspberry Pi e com a câmara. Consegui fazer um seguidor de objecto, embora esteja ainda bastante lento já funciona minimamente. A detecção é feita pela cor e dá muitos problemas com a variação da iluminação. Visão por computador não é uma área em que esteja à vontade, estou a aprender algumas coisas por causa deste projecto. Se alguém daqui do forum der umas dicas sobre o assunto fico agradecido. Aqui fica o vídeo, estou já a trabalhar em melhorias :)
www.youtube.com/watch?v=58xxn6d_bUg (http://www.youtube.com/watch?v=58xxn6d_bUg#)
-
A mesa tem uma cor semelhante à bola. Tenta usar uma cor que sobressaia mais, como verde, por exemplo.
-
A mesa tem uma cor semelhante à bola. Tenta usar uma cor que sobressaia mais, como verde, por exemplo.
Obrigado pela observação, a mesa nem causa muita interferência. O pior é mesmo a variação de iluminação. De qualquer forma tenho lido sobre o assunto e já fiz mais alguns progressos. Quando tiver resultados interessantes volto a colocar um vídeo. O bom da robótica é que estou sempre a aprender alguma coisa nova :)
-
Boas a todos
Aqui fica o vídeo com as últimas actualizações do robô. Tem sido um desafio juntar o Raspberry Pi ao conjunto. O processamento de imagem continua bastante sensível à iluminação, tenho algumas ideias para implementar no futuro. Para já o resultado é este, não estou descontente porque tem muito por onde melhorar. Espero que gostem.
www.youtube.com/watch?v=3BJFxnap0AI (http://www.youtube.com/watch?v=3BJFxnap0AI#)
-
Boas a todos
Aqui fica o vídeo com as últimas actualizações do robô. Tem sido um desafio juntar o Raspberry Pi ao conjunto. O processamento de imagem continua bastante sensível à iluminação, tenho algumas ideias para implementar no futuro. Para já o resultado é este, não estou descontente porque tem muito por onde melhorar. Espero que gostem.
www.youtube.com/watch?v=3BJFxnap0AI (http://www.youtube.com/watch?v=3BJFxnap0AI#)
Muito Fixe!
Parabéns!
-
Já tá fixolas yah!
Só lhe falta uma garra ali à frente é já podes brincar fetch com ele. ;)
Fazer processamento de imagem com uma coisa assim em movimento é sempre um desafio, mas estás definitivamente no bom caminho!
Em relação à sensibilidade , eu sempre que fiz projectos com processamento imagem a primeira coisa que fazia ela logo desligar os ajustes automáticos de tudo. Fiz umas brincadeiras tb com um Ar Drone a perseguir um alvo, e aquilo ainda chegou a podar lá umas folhas de umas plantas na faculdade. Mas logo desde o inicio reparei que era mais produtivo desligar o ajuste automático dos brancos brilho e tratar eu disso, pois tinha mais controle sobre a coisa.
-
Em relação à sensibilidade , eu sempre que fiz projectos com processamento imagem a primeira coisa que fazia ela logo desligar os ajustes automáticos de tudo.
Já reparei que a câmara faz o ajuste da gama mas não sei se consigo desligar essa funcionalidade. Estou a usar o módulo câmara específico para o Raspberry Pi. Tenho que experimentar outras técnicas de detecção, o que está implementado é uma coisa bastante simples e não há milagres. Agora é nisso que tenho que trabalhar. Estou a gostar do desafio, já há uns tempos que andava com vontade de usar processamento de imagem num robô. A base está criada, agora é continuar :)
-
Parabéns, execelente trabalho!!
-
Muito bom trabalho!!
Força nisso! ;)
-
Parabéns pelo trabalho está sem duvida com muito bom aspecto.
Posso perguntar que biblioteca está a usar para o processamento de imagem?
Cumps,
André.
-
Parabéns pelo trabalho está sem duvida com muito bom aspecto.
Posso perguntar que biblioteca está a usar para o processamento de imagem?
Cumps,
André.
Obrigado
Estou a usar o OpenCV, está nos posts anteriores.
-
Obrigado, não tinha reparado. ;)
-
Impressionante, bom trabalho :)
Faz-me lembrar o meu gato, vai atrás de tudo mas quando chega perto, pára e fica a olhar lol
O processamento de imagem com os servos já é de si perfeito, agora montar num segway é de mestre, vais longe.
Se tiver duas bolas, ele baralha-se ou opta por uma?
-
Impressionante, bom trabalho :)
Faz-me lembrar o meu gato, vai atrás de tudo mas quando chega perto, pára e fica a olhar lol
O processamento de imagem com os servos já é de si perfeito, agora montar num segway é de mestre, vais longe.
Se tiver duas bolas, ele baralha-se ou opta por uma?
Obrigado pelo comentário, já houve mais pessoas a dizer que parecia um gato :)
Não está prevista a situação de apanhar dois objectos por isso não sei o que acontece, mas é fácil de introduzir essa alteração no código. Este vídeo foi feito quando juntei tudo pela primeira vez, apenas tinha sido testado mas de forma independente. Vou evoluindo e introduzindo alterações como essa que foi sugerida. Com o Raspberry Pi no sistema a imaginação é o limite, pode ser feita tanta coisa com o robô...
-
Verdade, ainda fiquei a pensar um pouco nas possibilidades, a melhor foi de brincar ao busca em que se atira uma bola, o robot procura por ela, apanha-a com garras e devolve ao dono tendo este uma bola de outra cor para ser localizado.
Talvez um detector de obstáculos também fosse boa ideia assim como conseguir saber a sua posição para voltar atrás.
-
Boas pessoal
Já há muito que não posto aqui novidades. Aqui ficam os meus 2 últimos vídeos, espero que gostem :)
RS4 - Self balancing Raspberry Pi OpenCV image processing Robot (http://www.youtube.com/watch?v=r3y3pOQVqXg#)
RS4 - Self balancing Raspberry Pi OpenCV image processing Robot Update 1 (http://www.youtube.com/watch?v=EZNrvxOeuAI#)
-
Muito bom sim senhor. :)
Como é que está a funcionar a reacção aos cartões? Ele aproxima-se sempre até à mesma distancia de todos os cartões (mesmo que já os tenha reconhecido de mais longe)? E tens cartões para fazer mais acções diferentes? Está a ficar muito fixe, parece conseguir reconhecer bem os cartões... Não tiveste problemas com a iluminação?
-
Ele pára a cerca de 50 cm das placas, não é sempre igual porque depende da parte que controla o equilíbrio. Os olhos ficam azuis quando lê uma placa com sucesso, consegue ler mesmo em andamento mas para testes iniciais prefiro que pare, quando corre mal cai :)
A leitura das placas é bastante robusta, só quando está escuro é que falha. O seguimento das placas é com base na cor azul e aí sim tenho problemas com a luz. O auto ajuste da câmara não dá pra desligar... tenho mais placas diferentes, vou fazer um vídeo msis completo em breve.
-
Fantástico!
-
O seguimento das placas é com base na cor azul e aí sim tenho problemas com a luz. O auto ajuste da câmara não dá pra desligar... tenho mais placas diferentes, vou fazer um vídeo msis completo em breve.
Hummmm já agora porque é que decidiste usar uma margem azul? Eu qdo fiz a minha brincadeira para por o ArDrone a seguir alvos usei sempre preto/branco para ter o máximo de contraste possível, experimentei usar cores tambem mas obtive sempre resultados melhores com preto/branco.
-
Hummmm já agora porque é que decidiste usar uma margem azul?
Basicamente quando "vê" algo azul ele sabe que é uma placa e vai até lá para a ler, para ler não é usada a cor. Escolhi o azul por que é a cor menos presente na sala. Só agora é que estou a entrar na onda do OpenCV e começo a fazer coisas mais complexas e já tenho ideias para melhorar alguns aspectos e tornar o processo mais robusto. Também usa o sensor de distância para a aproximação às placas.
-
Brutal! Tenho estado a trabalho num projecto parecido, pelo menos no tratamento de imagem e o teu está muito bom.
Bom trabalho
-
Apenas uma palavra: brutal!!
Continua..!! :)
-
Aqui fica o vídeo mais completo que tinha prometido. A seguir vou trabalhar numa forma de evitar obstáculos usando informação do sensor ultra-sónico e processamento de imagem, vamos ver como corre. Quando tiver resultados interessantes mostro aqui.
www.youtube.com/watch?v=O6XkH84JYjU (http://www.youtube.com/watch?v=O6XkH84JYjU#)
-
Muito bom... ;)
-
Fabuloso ;D
-
muito bom, continua assim e arranjas trabalho na Microsoft xD
Eu para o meu projecto de PAP tinha pensado em fazer um robô que me seguisse e não conseguia descobrir nenhuma maneira para além do tratamento de imagem, falei com um sr que percebia bastante de robótica e ele disse-me que seria bastante complicado, e assim deixei o projecto para trás... estive a ver agora o tópico completo e isso parece ser "fácil" :o (pelo tempo que demoraste a fazer o projeto até agora) xD
Já pensaste em colocar uma luz no robo para usá-la quando está mais escuro?
-
muito bom, continua assim e arranjas trabalho na Microsoft xD
Eu para o meu projecto de PAP tinha pensado em fazer um robô que me seguisse e não conseguia descobrir nenhuma maneira para além do tratamento de imagem, falei com um sr que percebia bastante de robótica e ele disse-me que seria bastante complicado, e assim deixei o projecto para trás... estive a ver agora o tópico completo e isso parece ser "fácil" :o (pelo tempo que demoraste a fazer o projeto até agora) xD
Já pensaste em colocar uma luz no robo para usá-la quando está mais escuro?
Por acaso neste momento nem emprego tenho...
O fácil ou difícil depende sempre dos conhecimentos que tens, eu não diria fácil diria antes realizável :).
Mas sim, por o robô a seguir uma pessoa pela cor, por exemplo, é relativamente fácil com os recurso que existem hoje em dia.
-
então, e mais progressos? tamos a espera ;D
uma coisa, que peça/coisa/servo/motor/whatever usaste para virar a cabeça em todas as direcções? onde posso arranjar? e será que funciona em arduíno?
se alguém me puder responder agradecia :)
-
então, e mais progressos? tamos a espera ;D
uma coisa, que peça/coisa/servo/motor/whatever usaste para virar a cabeça em todas as direcções? onde posso arranjar? e será que funciona em arduíno?
se alguém me puder responder agradecia :)
O rapaz já fez muito...
Para quem entende pouco, até a este nivel está um luxo.
Servos arranja-se em todo o lado...google :)
Colocar servos a funcionar com o arduino é uma tarefa bastante acessivel a todos...google :)
Bosn projectos.
-
então, e mais progressos? tamos a espera ;D
uma coisa, que peça/coisa/servo/motor/whatever usaste para virar a cabeça em todas as direcções? onde posso arranjar? e será que funciona em arduíno?
se alguém me puder responder agradecia :)
Boas,
Para já não tenho mais progressos que sejam visíveis, assim que tiver mostro aqui.
Os servos que mexem a cabeça são dois Tower Pro MG90S.
Tenho aprendido bastante de OpenCV, mas demora o seu tempo até ter algo aplicável ao robô. Primeiro testo no PC com a câmara integrada e só depois é que passo para o Raspberry Pi. Tenho uma API nova da câmara para testar, tão cedo não haverão novidades para fazer vídeos. Qualquer dúvida é só perguntar :)
-
Samy74,
muitos parabéns, está fantástico!
Cumprimentos, Mauro.
-
http://www.adafruit.com/blog/2013/11/08/self-balancing-raspberry-pi-image-processing-robot-raspberry_pi-piday-raspberrypi/ (http://www.adafruit.com/blog/2013/11/08/self-balancing-raspberry-pi-image-processing-robot-raspberry_pi-piday-raspberrypi/)
Parabens! Pelo robot e por chegar ao blog do adafruit.
-
Muito bom e parabéns pelo trabalho :)
-
http://www.adafruit.com/blog/2013/11/08/self-balancing-raspberry-pi-image-processing-robot-raspberry_pi-piday-raspberrypi/ (http://www.adafruit.com/blog/2013/11/08/self-balancing-raspberry-pi-image-processing-robot-raspberry_pi-piday-raspberrypi/)
Parabens! Pelo robot e por chegar ao blog do adafruit.
Obrigado
Nem sabia desta informação.
-
Foi também partilhado este post da adafruit através da página oficial do raspberrypi.
É bom ver um utilizador do fórum obter reconhecimento e visibilidade no estrangeiro
-
http://www.adafruit.com/blog/2013/11/08/self-balancing-raspberry-pi-image-processing-robot-raspberry_pi-piday-raspberrypi/ (http://www.adafruit.com/blog/2013/11/08/self-balancing-raspberry-pi-image-processing-robot-raspberry_pi-piday-raspberrypi/)
Parabens! Pelo robot e por chegar ao blog do adafruit.
Obrigado
Nem sabia desta informação.
é estranho a adafruit nem te ter contactado para postarem o teu trabalho no site deles, alem do mais, usam o teu projecto para eles poderem vender mais rpis e acessorios que usaste no teu projecto...
..mas se o postaram, é pq o projecto é um bom projecto! parabéns!
-
Parabéns. Já tens visibilidade intrenacional!!!!
Vais ver que propostas de emprego não vão faltar.
E mereces
-
é estranho a adafruit nem te ter contactado para postarem o teu trabalho no site deles, alem do mais, usam o teu projecto para eles poderem vender mais rpis e acessorios que usaste no teu projecto...
..mas se o postaram, é pq o projecto é um bom projecto! parabéns!
Não precisam de o fazer porque o vídeo é público mas ficava-lhes bem.
Parabéns. Já tens visibilidade intrenacional!!!!
Vais ver que propostas de emprego não vão faltar.
E mereces
Isso é que dava jeito :)
-
Com um projecto espectacular e uma visibilidade internacional não ade de demorar muito a seres contactado :)
Mas acho que lhes ficava bem dar-te uma palavrinha antes de postarem o teu trabalho
-
Muito bom projecto, parabéns :)
Uma questão relativamente à estrutura, onde arranjas aqueles tubos de metal para fazer de espaçadores?
Outra questão, neste video http://www.youtube.com/watch?v=O6XkH84JYjU#t=0m17m, (http://www.youtube.com/watch?v=O6XkH84JYjU#t=0m17m,) ve-se que ele vai andando e fazendo tracking do simbolo. Como estas a fazer este controlo?
-
Muito bom projecto, parabéns :)
Uma questão relativamente à estrutura, onde arranjas aqueles tubos de metal para fazer de espaçadores?
Outra questão, neste video http://www.youtube.com/watch?v=O6XkH84JYjU#t=0m17m, (http://www.youtube.com/watch?v=O6XkH84JYjU#t=0m17m,) ve-se que ele vai andando e fazendo tracking do simbolo. Como estas a fazer este controlo?
Usei dois tipos para os espaçadores de alumínio, os mais pequenos são tubos, os maiores são maciços e abri rosca nas pontas. Encontras no bricomarché estes perfis em várias medidas e materiais.
O tracking do símbolo é feito pela cor azul, já tinha explicado num dos posts anteriores.
-
Muito bom projecto, parabéns :)
Uma questão relativamente à estrutura, onde arranjas aqueles tubos de metal para fazer de espaçadores?
Outra questão, neste video http://www.youtube.com/watch?v=O6XkH84JYjU#t=0m17m, (http://www.youtube.com/watch?v=O6XkH84JYjU#t=0m17m,) ve-se que ele vai andando e fazendo tracking do simbolo. Como estas a fazer este controlo?
Usei dois tipos para os espaçadores de alumínio, os mais pequenos são tubos, os maiores são maciços e abri rosca nas pontas. Encontras no bricomarché estes perfis em várias medidas e materiais.
O tracking do símbolo é feito pela cor azul, já tinha explicado num dos posts anteriores.
A minha questão era sobre o controlo do movimento. Por exemplo, quando ele detecta um símbolo é perceptível que ele primeiro procura o próximo símbolo e avança no entanto naquela parte do video que referi ele faz uma curva o que indica que corrige a posição do símbolo enquanto está andar. Era relativamente a esta parte que estava a perguntar como fizeste.
-
Sim, ele segue em direcção ao símbolo de forma a conseguir ler. O seguimento é feito com base no ângulo da "cabeça".
-
Samy74,
parabéns pelo aparecimento no HaD,
http://hackaday.com/2013/11/10/self-balancing-robot-keeps-getting-more-features/ (http://hackaday.com/2013/11/10/self-balancing-robot-keeps-getting-more-features/)
Cumprimentos, Mauro.
-
Samy74,
parabéns pelo aparecimento no HaD,
http://hackaday.com/2013/11/10/self-balancing-robot-keeps-getting-more-features/ (http://hackaday.com/2013/11/10/self-balancing-robot-keeps-getting-more-features/)
Cumprimentos, Mauro.
Obrigado, é novidade para mim, não sabia :)
-
Parabéns mais uma vez :)
-
Muitos parabéns pelo teu projecto: Está excelente!
-
Para quem pediu novidades, aqui está um vídeo acabadinho de sair do forno :)
www.youtube.com/watch?v=7ZKRFJymi3M (http://www.youtube.com/watch?v=7ZKRFJymi3M#ws)
-
Muito bom! Mais umas horas de trabalho e já o vais ter a varrer-te a casa toda ;)
-
Sim Sr, parabéns!
Uma pergunta, tas a usar o RaspberryPI certo?
-
Muito bom sem dúvida...
Eu tenho uma dúvida estas a programar para CPU ou GPU ?
Digo isto porque não sabia que a raspberry podia fazer certas coisas que tens feito, pensei que houvesse poucos fps para certas coisas..
Cumps,
André.
-
Eu tenho uma dúvida estas a programar para CPU ou GPU ?
Digo isto porque não sabia que a raspberry podia fazer certas coisas que tens feito, pensei que houvesse poucos fps para certas coisas..
De momento estou a usar apenas o CPU, há um user do forum raspberrypi.org que fez umas coisas interessantes com o GPU que quero ver com mais atenção quando tiver tempo. Vê aqui:
http://robotblogging.blogspot.co.uk/2013/10/gpu-accelerated-camera-processing-on.html (http://robotblogging.blogspot.co.uk/2013/10/gpu-accelerated-camera-processing-on.html)
Penso que conseguiria acelerar um pouco o processo se usasse alguns destes conceitos mas ainda não experimentei. O raspberry tem-se portado bastante bem no processamento de imagem, obviamente tem as suas limitações mas conseguem-se resultados interessantes.
-
Uma pergunta, tas a usar o RaspberryPI certo?
Isso nem se pergunta, basta até ver pelos titulos dos videos :)
-
Obrigado Samy, tenho andado a trabalhar com o OpenCv nos ultimos tempos mas no computador, quero depois migrar para um plataforma pequena...Ando a pensar em Odroid mas o GPU da pi deixa-me a pensar...
Por acaso não testas-te Optical Flow?
Cumps,
André.
-
Não conhecia essa Odroid, estive a ver agora as specs e parece-me bem potente. Eu utilizei o raspberry porque tinha um, nem andei a pesquisar outras plataformas. Não testei optical flow nem conhecia o conceito, já usaste?
-
Olá, sim ando a fazer tratamento de imagem, e a tentar usar o Optical Flow...
Basicamente tenho vectores com as direcções dos objectos que prentendo seguir/destacar...
Mas ainda ando a luta com isto, porque tanto a camara como o background estão em movimento.. ;)
Relativamente a Odroid é outra louça, mas a GPU da raspberry e muito boa...
-
É pena é não existir datasheets de nada..
-
É pena é não existir datasheets de nada..
Pelo que tenho lido no forum raspberrypi.org o que corre no GPU é fechado. Algumas pessoas (inclusive eu) têm-se queixado da impossibilidade de desligar o AWB da câmara, está constantemente a alterar a luminosidade da imagem. O processo do AWB é feito no GPU e é fechado, não há possibilidade de inventar e tentar arranjar solução.
-
desculpa pela pergunta um pouco estúpida.
mas como vc trabalham com o raspberry tem de ter um monitor à parte ou tem tudo ligado ao pc e programam? bem n sei se me fiz entender.
-
Eu ligo um teclado, rato e monitor para programar. Existem outras formas, podes aceder por SSH e é possivel também fazer cross compile. Eu estou a programar directamente porque dá mais jeito para testar, por vezes o tempo de compilação é enorme.
-
entao tb estou a pensar bem muito obrigado
-
Uma pergunta, tas a usar o RaspberryPI certo?
Isso nem se pergunta, basta até ver pelos titulos dos videos :)
lol pois... :s
-
Todo o processador é fechado, á muita capacidade de processamento que nunca será acedida, a não ser por reverse engineering do blob binário que Broadcom "oferece", de resto, á muita coisa que não pode ser usada ou activada, porque a broadcom acha que dar datasheets é só com NDA's e para quem compra uns milhões de chips por semana, até porque esse SoC é feito para ser usado em Set top boxes, media players e companhia..
-
ainda não sei como ninguém mandou nada cá para fora, ninguém se chega à frente com um wikileaks da electronica? lool
-
Documentos sob NDA metidos na rua dão direito a processos judiciais muito pesados, e a industria pode-se dizer que é pequena, rapidamente descobrem quem o fez, ninguem quer arriscar ser despedido e a empresa ser vedada ao mercado por ter empregados que não respeitam os NDA's.
Já ouviste falar dos livros amarelos e os livros laranja da Intel?
-
Documentos sob NDA metidos na rua dão direito a processos judiciais muito pesados, e a industria pode-se dizer que é pequena, rapidamente descobrem quem o fez, ninguem quer arriscar ser despedido e a empresa ser vedada ao mercado por ter empregados que não respeitam os NDA's.
Já ouviste falar dos livros amarelos e os livros laranja da Intel?
Não conheço.
Sim, eu percebo isso, mas não me parece impossível de todo que um empregado conseguisse lançar essa info e se na maioria dos casos isso nem fosse algo que um empregado se lembrasse de fazer, neste caso existe mediatismo para se lembrarem disso.
-
Pois esse é o grande mal da GPU da Rpi, mas ouvi dizer qualquer coisa que isso ja foi ou ia ser desbloqueado, já não me recordo onde li isso...
Relativamente a Datasheets, pois é pena sim...