Toekomst internet onzeker

In het laatste nummer van Technology Review, een uitgave van het M.I.T. (Massachusetts Institute of Technology, enigszins vergelijkbaar met onze T.U. in Delft), werd een uitvoerig artikel gewijd aan het groeiend aantal ‘beren’ op het internet-pad. Als verslaafde gebruikers worden we geconfronteerd met virussen, spam, spying en soms ook hacking. Volgens internetarchitect David D. Clark zijn we op een kritiek punt aanbeland. Het internet dreigt af te glijden in een neerwaartse spiraal als gevolg van steeds nieuwe toepassingen zoals draadloze apparatuur, file sharing, internettelefonie en dergelijke.

Nieuw onderzoek

Onderhoud en veiligheid worden belangrijker naarmate het aantal toepassingsmogelijkheden groeit. Volgens Clark is het tijd om nog eens goed na te denken over de basisarchitectuur van internet en over de ontwikkeling van een nieuw concept dat in staat is op adequate wijze nieuwe gebruikstoepassingen te implementeren. Met andere woorden, het wordt tijd om een meer volwassen internetinfrastructuur te creëren waaraan hoge standaard gebruikstoepassingen kunnen worden gekoppeld. De National Science Foundation (NSF) heeft hiertoe vorig jaar de aanzet gegeven met een budget van $ 200 tot 500 miljoen. Bij een positief resultaat mogen revolutionaire ontwikkelingen op dit terrein worden verwacht. De veiligheid zal hierbij een cruciale rol spelen.

Risico’s

In augustus 2005 liet IBM weten dat het aantal virussen via e-mails en veiligheidsaanvallen in de eerste helft van dat jaar met zo’n 50% was gestegen. Ruim 43% van de 59 miljoen internetgebruikers in Amerika rapporteerde spyware en adware op hun computers te danken te hebben aan het bezoeken van websites. Firewalls zijn intussen een begrip geworden, maar ze zijn niet altijd waterdicht. Ook spam is gigantisch toegenomen. Volgens Symantec steeg het aantal spams in korte tijd van 800 miljoen naar 1,2 miljard. Het meest bedreigend zijn echter de botnets, waarmee clusters van computers met één druk op de knop gehackt kunnen worden. Men noemt dit ook wel wholesale hacking met als gevolg totale digitale ontregeling op grote(re) schaal. Dit werd opportuun door de invoering van de zogeheten breedbandtoepassing.

Een en ander is mogelijk doordat het internet geen ingebouwde veiligheidsarchitectuur kent. Vandaar allerlei kunstgrepen door middel van beveiligingssoftware. Het vervelende is dat er ook steeds nieuwe gaten in de bestaande programmatuur zijn te schieten, terwijl de beschermingskosten verder toenemen. In de VS is men er geenszins gerust op. Integendeel, men heeft angst voor een onverhoedse zware aanval, bijvoorbeeld gericht op Amerika’s energievoorziening. Eén goed geplaatste aanval is in staat om een substantiële black-out te bewerkstelligen die een deel van het land van het ene op het andere moment zou kunnen lamleggen.

Volgens de Universiteit van Oxford in Engeland kan het nog erger door enkele codelijnen aan virussen toe te voegen, zodat de harde schijf wordt gewist of zelfs wordt uitgerust met foute gegevens die spreadsheets en documenten volledig naar de bliksem kunnen helpen. Door middel van toevoeging van een beetje gif aan de top-10 virussen is het al mogelijk om het internetverkeer in een groot deel van de wereld volledig te verlammen.

Toen het internet in de jaren ’60 werd ontwikkeld waren de oorspronkelijke protocols alleen bedoeld om de communicatie tussen een paar honderd wetenschappers en overheidsgebruikers te vergemakkelijken. Men was in die tijd totaal niet bedacht op oneigenlijk gebruik van het internet. Er bestonden eenvoudigweg geen voorzieningen om dat te bestrijden. Daardoor loopt de beveiliging altijd achter de feiten aan! Nog afgezien van het feit dat lang niet iedere gebruiker zijn updates tijdig installeert.

Gaten in de dijk

Volgens diverse experts is er serieus reden om bezorgd te zijn. Firewalls, antivirussoftware, spamfilters enzovoorts dragen bij tot meer complexiteit, die in zijn totaliteit minder beheersbaar wordt. Eigenlijk zijn we alleen maar bezig om pleisters op de wonden te leggen om het bloeden te voorkomen. Hiermee kunnen we echter niet blijven doorgaan. Er volgt een zogeheten dead end en dan valt er niks meer te pleisteren. Tom Leighton van Akamai Technology (een bedrijf dat ervoor zorgt dat webpagina’s en toepassingen altijd beschikbaar zijn, zelfs bij excessief bezoek) drukte het zo uit: ‘we zijn continu bezig om gaten in de dijk op te vullen, terwijl er steeds meer gaten bijkomen. Dit proces kan niet zo blijven doorgaan, omdat de dijk zijn structuur volkomen kwijt dreigt te raken.’

Kosten

De software van Microsoft handelt om het internet en de pc. Hiertoe spendeert het bedrijf jaarlijks $ 6 miljard voor onderzoek en ontwikkeling. Eenderde of $ 2 miljard gaat alleen al op aan beveiliging. Nieuw ontwikkelde toepassingen bleven in het laboratorium liggen, omdat men niet zeker was van de beveiligingsimplicaties. Intel vergelijkt de kosten van beveiliging als een steeds maar oplopend belastingtarief met een kostenplaatje van vele miljarden! Deze kunnen in de toekomst zo hoog oplopen dat vele gebruikers kunnen of zullen afhaken.

Doelen

De huidige internetarchitectuur staat ook in de weg van nieuwe technologieën. Netwerken van nieuwe sensoren – die gezamenlijk zaken als bedrijfsprocessen, het weer of videobeelden in de gaten houden en interpreteren – kunnen het computeren even sterk veranderen als de pc 20 jaar geleden deed. Hiervoor is evenwel een compleet nieuwe infrastructuur nodig. Maar ook hier draait het weer om veiligheid. Daarnaast zullen duidelijk andere doelen dienen te worden gesteld. Nieuwe protocollen zijn nodig voor een betere en snellere routing en betere connectivity, niet alleen tussen computers onderling maar ook tussen sensoren en processoren en last but not least een beter en makkelijker onderhoud. Aanzetten hiertoe zijn reeds gegeven zoals gemeld door de NSF maar ook door andere instituten zoals PlanetLab in Princeton, Emulab in Salt Lake City, University of Southern California en Winlab (Wireless Information Network Laboratory) in New Jersey.

Sceptici zeggen, dat een slimmer netwerk meer complexiteit met zich meebrengt en bijgevolg evenzo meer kans op mislukking in zich herbergt. Men vreest voor een geringere efficiency en de open vraag of een dergelijk nieuwe infrastructuur uiteindelijk veiliger is. Niettemin worden de onderzoekspogingen van de National Science Foundation nieuwsgierig gevolgd. Dit mede tegen de achtergrond van de voorspelling van 10 jaar geleden dat het risico van een digitaal ‘Pearl Harbor’ steeds dichterbij komt. Om die reden dient het initiatief van de NSF warm te worden ondersteund, ongeacht de uitkomst van dit onderzoek. De tijd dringt temeer omdat we wereldwijd steeds afhankelijker worden van het internet!

Robert Broncel

0 antwoorden

Plaats een Reactie

Meepraten?
Draag gerust bij!

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze website gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.