Aos linguistas responsáveis pela criação das linguagens de Game of Thrones juntam-se Vasco Pedro, CEO da Unbabel, e João Graça, CTO da empresa, para explicar qual é o papel dos idiomas no processo de construção de confiança e lealdade nas marcas.
A Meta está a desenvolver o estudo do cérebro humano para melhorar os sistemas de inteligência artificial e fazer com que aprendam e raciocinem como os humanos. Nos últimos dois anos os investigadores deram passos importantes mas uma nova parceria com o centro de neuroimagem NeuroSpin (CEA) pode tra
O CodeNet é uma enorme base de dados para dar "combustível" às tecnologias de inteligência artificial e fazer delas uma ajuda preciosa na migração de código, entre linguagens de programação.
O Blender foi treinado através de modelos neurais de grande escala com cerca de 9,4 mil milhões de parâmetros. O Facebook também o treinou com cerca de 1,5 mil milhões de exemplos de linhas de diálogo vindas de grupos de discussão do Reddit.
Ao todo, o Turing Natural Language Generation (T-NLG) tem 17 mil milhões de parâmetros, conseguindo utrapassar modelos como os que foram desenvolvidos pela NVidia ou pela OpenAI. Para já, a ferramenta não se encontra disponível para uso público.