Droner og ubemandede køretøjer som et våben: hvorfor vi skal være bange for hackere
Af Teknologi / / December 19, 2019
Ingen vil benægte, at kunstig intelligens kan sætte vores liv på nyt niveau. AI er i stand til at løse mange problemer, der ligger uden magt mennesket.
Men mange mener, at superintelligens vil ønske at ødelægge os, som Skynet, eller begynde at udføre eksperimenter på mennesker som GLaDOS fra spillet Portal. Det ironiske er, at for at gøre en kunstig intelligens kan kun folk godt eller ondt.
Forskere fra Yale, Oxford, Cambridge, og selskabet bogført OpenAI rapport om misbrug af kunstig intelligens. Den siger, at den virkelige fare kommer fra hackere. Med hjælp fra skadelig kode, kan de forstyrre driften af automatiserede systemer under AI kontrol.
Forskere frygter, at teknologien skabt med gode intentioner, vil blive brugt til skade. For eksempel kan overvågningen anvendes ikke blot at fange terrorister, men også at udspionere almindelige borgere. Forskerne bekymrende også kommercielle droner, der leverer mad. De er nemme at opfange og sætte en noget sprængstof.
Et andet scenario er destruktiv brug af AI - ubemandede køretøjer. Det er nok til at ændre et par linjer kode, og maskinen vil begynde at ignorere sikkerhedsreglerne.
Forskerne mener, at truslen kan være digitale, fysisk og politisk.
- Kunstig intelligens bruges allerede til at studere sårbarheder i forskellige programkoder. I fremtiden kunne hackere skabe sådan en bot, som vil omgå nogen beskyttelse.
- Med AI person kan automatisere mange af de processer: for eksempel for at styre en sværm af droner, eller en gruppe køretøjer.
- Med teknologier som DeepFake, kan påvirke det politiske liv i staten, sprede falske oplysninger om lederne af verden via Bot.
eksisterer Disse skræmmende eksempler kun som en hypotese. Undersøgelsens forfattere ikke tilbyder en komplet afvisning af teknologien., De mener i stedet, at regeringer og store virksomheder bør tage sig af sikkerheden, mens industrien kunstig intelligens vorden.
Politikere bør lære teknologien og arbejder sammen med eksperter på området, for effektivt at fastsætte regler om etablering og anvendelse af kunstig intelligens.
Udviklere til gengæld bør vurdere den fare, som høj-teknologi, for at forudse og forhindre de værste konsekvenser af disse verdens ledere. Rapporten opfordrer til AI-udviklere: hold op med sikkerhedseksperter på andre områder og for at finde ud af, om du kan bruge de principper, der sikrer sikkerheden for disse teknologier til beskyttelse af kunstig intelligens.
Fuld rapport beskriver problemet nærmere, men det faktum, at AI - en kraftfuld værktøj. Alle interessenter skal lære en ny teknologi, og sørg for at det ikke bliver brugt til kriminelle formål.