Leg ki aan (energie)banden

Sam Altman

Sam Altman van OpenAI:…nog meer… (afb: WikiMedia Commons)

Het lijkt tegenwoordig wel of de duvel en zijn ouwemoer kunstmatige intelligentie gebruikt. Al vaker is gesteld dat ki gigantische hoeveelheden energie maar ook water gebruikt in het leerproces. John Naughton stelt in het Britse dagblad the Guardian dat daar snel paal perk aan gesteld moet worden om problemen met de energie- en drinkwatervoorziening te voorkomen.
Lees verder

Analoge chips zouden ki sneller en minder energieintensief maken

Een oudere analoge chip van IBM

Een (oudere) analoge chip (midden) van IBM (afb: ibm.com)

Een groot probleem bij kunstmatige intelligentie is dat die technologie aanzienlijke hoeveelheden energie vergt. Dat heeft vooral te maken met de ‘leerperiode’ van die ki-systemen, waarin ze gevoed worden met een hoop informatie, beelden e.d. (afhankelijk van het onderwerp). Analoge chips, die de opslag en het ‘rekenwerk’ combineren, zouden dat met aanzienlijk minder energie en veel sneller (zo’n veertien keer) kunnen doen, is de gedachte van onder meer IBM. Daarmee zouden veel beter de neurale netwerken te maken zijn die meestal bij ki worden gebruikt, waarbij ze geen last hebben van het Von Neumannknelpunt van systemen waar gegevensopslag en rekeneenheden zijn gescheiden (anders dan in onze hersens, zo stellen we ons voor). Lees verder

Een bureaucomputer is om te bouwen tot supercomputer

Hersenmodel

Een hersenmodel van Eugene Izhikevich (afb: izhikevich.org)

Laat de kwantumdromers het maar niet horen. Als je je bureaucomputer kunt ombouwen tot een supercomputer, tot welke hoogtes zou je een gewone digitale supercomputers dan kunnen opstoten? Boven het (gedachte) kwantumniveau? In ieder geval hebben onderzoekers van de universiteit van Sussex (Eng) de grenzen van simpele pc’s aanzienlijk opgerekt, waarmee hersensimulaties en kunstmatige intelligentie binnen het bereik van ‘iedereen’ komen…. Lees verder

Wordt het nog wat met die lichtcomputers?

Lichtrekentuig

Een plaatje van een lichtcomputer? (afb: LightOn)

Er wordt al jaren gespeculeerd over lichtcomputers, rekentuigen die niet met elektronene werken maar met licht(deeltjes). Die zijn veel sneller, maar vooralsnog zit er niet veel schot is. Net als de kwantumcomputer lijkt de lichtcomputer vooral een beloftevolle toekomst te hebben, zonder dat die erg snel dichterbij komt (kernfusie is ook zo’n verhaal). Er zijn nog steeds mensen die in lichtcomputers geloven (en waarom ook niet). Een van hen is William Andregg met zijn bedrijfje Fathom Computing. Hij heeft een prototype gebouwd van een lichtcomputer en dat leert handschriften te ontcijferen en andere aardige klusjes. Lees verder

Supercomputers niet langer nodig, zeggen Russen

grafische processor voor het oplossen van complexe integraalvergelijkingen

Een simpele grafische Nvidia-processor verslaat supercomputers (afb: Nvidia)

Een groep Russische wetenschappers van de Lomonosov-universiteit in Moskou stelt dat supercomputers niet nodig zijn om ingewikkelde problemen op te lossen. Ze gebruikten een grafische processor van Nvidia en zouden daarmee in staat geweest zijn complexe problemen in de kwantummechanica vele malen sneller op te lossen dan mogelijk zou zijn geweest met de getallenkrakers. Lees verder

‘Kwantumcomputer’ D-Wave schaalt op

De nieuwe 1000-kwantumbitchip van D-Wave (2X)

De nieuwe 1000-kwantumbitchip van D-Wave (2X)

Het Canadese bedrijf D-Wave Systems in British Columbia dat, naar eigen zeggen, het enige bedrijf ter wereld dat kwantumcomputers  verkoopt, heeft een nieuw model aangekondigd, D-Wave 2X, dat vijftien keer sneller zou zijn dan gewone bureaucomputers. Volgens door het Britse blad New Scientist geraadpleegde deskundigen zou het bedrijf bij de bepaling van het rekenvermogen van de 1000 kwantumbits niet helemaal eerlijk hebben gespeeld. De vorige computer van D-Wave Systems had een processor met 512 kwantumbits. Lees verder

Harlan maakt van grafische processor supercomputer

Een grafische processor doet/kan veel meer dan verwerken van beelden. Foto: Flickr/Wimox

Grafische processors zijn kleine chips die voor veel meer zaken gebruikt kunnen worden dan voor beeldverwerking. Zo gebruikt Google ze voor het modelleren van het menselijk brein en gebruikt het internetbedrijf SalesForce ze voor het analyseren van de gegevensstromen op Twitter. Grafische processors zijn goed in parallelle verwerking, het tegelijkertijd afhandelen van duizenden taken.
Het punt is dat je daarvoor aparte programmatuur moet ontwikkelen om daar maximaal gebruik van te kunnen maken. Eric Holk, een promovendus aan de universiteit van Indiana, heeft een programmeertaal ontwikkeld, Harlan, die speciaal ontworpen is voor grafische processors. Holk: “Het programmeren voor zulke processors bevat nog steeds veel basaal werk, die je afhoudt van het eigenlijke doel. Wij wilden een systeem dat dat voor de programmeur doet, terwijl die zich op het echte werk kan richten.”
De centrale processor in een computer werkt snel, maar in het algemeen niet parallel (het kan wel, maar ze zijn er niet voor ontworpen). Als je een grafische parallele processor op de juiste manier ‘aanspreekt’, kan die, per saldo, sneller werken dat die veel snellere seriële processor. Dan gaan we denken aan een supercomputer.
De grafische processor heeft zich ontwikkeld van een component dat puur bedoeld was voor de beeldverwerking tot een parallel systeem met verschillende programmeerbare kernen waar je van alles en nog wat mee kan. Het is heel goed mogelijk dat beide, de centrale en de grafische, processors op den duur zullen versmelten, maar ondertussen kun je veel meer uit de beeldverwerkers halen dan beeldverwerking. Amazon biedt GPU-verwerking aan als internetdienst. “Grafische processoren hebben ook meer geheugen, zodat ze relatief simpele berekeningen kunnen maken voor een groot aantal gegevens”, stelt Holk.
Er bestaan al programmeertalen voor grafische processoren, zoals CUDA en OpenCL, maar Harlan zou meer bieden. Holk wilde ook iets ontwikkelen dat van de grond af aan gericht is op de grafische processor. “Meestal wordt het programmeren van de grafische processor ingebed in een andere programmeeromgeving, waarvan je de ook de nukken moet kennen,” verklaart de onderzoeker. “Met Harlan kun je de juiste beslissingen nemen bedoeld voor de grafische processor.”
Harlan is gebaseerd op Lisp ooit in ’58 ontwikkeld door John McCarty voor kunstmatige intelligentie. Of eigenlijk is het daar weer een ‘dialect’ van waar in Indiana veel mee gewerkt wordt: Scheme. Op Lisp zou elke goede programmeertaal gebaseerd moeten zijn, stelde Yukihiro “Matz” Matsumoto, ontwerper van de taal Ruby.
Er zijn ook andere wegen naar Rome, zoals Mozilla’s programmeertaal Rust, maar Holk is er van overtuigd dat zijn taal de mogelijkheden van grafisch processors ten volle gaat benutten.

Bron: Wired