Meta heeft versie 2 van Llama gepubliceerd onder een open source licentie. Dit is gelijk het beste open source taalmodel beschikbaar.
Je kan Llama-2 hier uitproberen: https://huggingface.co/chat
Bron: https://ai.meta.com/llama/
Ranking beste OS taalmodellen: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
Google heeft vandaag zijn chatbot BARD gelanceerd in Europa.
Google heeft wijzigingen rondom privacy door moeten voeren, zoals het verwijderen van je chat geschiedenis, om toegelaten te worden in de EU.
BARD zou wel eens beter kunnen worden dan ChatGPT. BARD geeft meer feitelijke antwoorden en het heeft toegang tot actuele gebeurtenissen. Zo kan het de vraag 'Wat gebeurde er gisteren in Vilnius?' beantwoorden. ( De NAVO-top).
Zie: bard.google.com
Gebruik je enkele specifieke boeken of juist de hele bibliotheek om een Large Language Model (LLM) te trainen?
Onderzoekers van o.a. Meta hebben een paper gepubliceerd waaruit blijkt dat het trainen van een LLM met beperkte databronnen (1000) een vergelijkbaar resultaat oplevert als trainen op het 'gehele' internet, zoals bij ChatGPT.
In hun paper 'Less Is More for Alignment' (LIMA)' tonen ze aan dat je heel goed LLM's kunt trainen met veel minder data.
Stanford research has published a document on how 10 Large Language Models are compliant with the new EU AI Act.
It turns out that the open source model BLOOM (https://huggingface.co/bigscience/bloom) adheres best to the AI Act.
BLOOM has been developed by >1000 scientists and is hosted by @huggingface
#ai #llm #opensource #howcomputerslearn #hoecomputersleren
I have created a Jupyter Notebook and compared 10 examples of AI-generated text with 10 examples of human written text. Using python code I calculated and compared their perplexity.
After just testing 20 examples, we can see in the graph below a clear difference between AI-generated and human written text using their perplexity-score.
This is promising, but lot more testing needed.
#howcomputerslearn
#hoecomputersleren
#howcomputerslearn #hoecomputersleren
Als we ChatGPT combineren met andere informatiebronnen kunnen we een nog krachtigere tool maken.
We kunnen dit doen door "AI-agents" in te zetten.
De opgegeven prompt wordt door ChatGPT gelezen en wordt opgeknipt in acties.
Ik wil in dit voorbeeld een grafiek van de bevolking van de vijf grootste Nederlandse steden.
De AI-agent haalt gegevens op bij WolframAlpha en 2) de AI-agent zet een opdracht uit om python-code te genereren waarmee de grafiek wordt gemaakt.
This means that a the hundreds of millions spend on developing ChatGPT and Bard might be a waste of money.
Source: https://simonwillison.net/2023/May/4/no-moat/
#howcomputerslearn #hoecomputersleren
Large Language Models (LLM's) worden voortdurend doorontwikkeld. Bijgaand plaatje laat de stamboom zien van de meest gebruikte LLM's.
#hoecomputersleren #punctuatedequilibrium
Een heldere uitleg in The Economist (paywall) over de werking van Large Language Models (LLM's).
ChatGPT is het meest bekende Large Language Model (LLM) maar doorlopend worden nieuwe LLM's gepubliceerd. Hieronder een korte tijdslijn. Die met de groene vinkjes zijn open source.
#hoecomputersleren
Bron: Nazneen Rajani
Met behulp van GPT kan je nu zelf een assistent maken of in het Engels een 'Task-driven Autonomous Agent'.
Stel, je wilt een spelletje programmeren zoals Pong. Je vraagt ChatGPT een takenlijstje te maken wat hier voor nodig is. Daarna vraag je om het takenlijstje helemaal af te werken, zodat stap voor stap het hele lijstje wordt uitgevoerd.
Met onderstaande repo wordt dit helemaal geautomatiseerd. https://t.co/5iC8rVuFO4