Drones en onbemande voertuigen als een wapen: Daarom moeten we bang zijn voor hackers te zijn
Van Technologie / / December 19, 2019
Niemand zal ontkennen dat kunstmatige intelligentie ons leven op kan zetten nieuw niveau. AI is in staat om vele problemen die buiten de macht van de mens op te lossen.
Echter, velen van mening dat superintelligentie zal willen om ons te vernietigen, als SkyNet, of beginnen te proeven op mensen als GLaDOS uit het spel Portal. De ironie is dat een kunstmatige intelligentie kan alleen mensen goed of kwaad te maken.
Onderzoekers van Yale, Oxford, Cambridge, en het bedrijf geplaatst OpenAI verslag over misbruik van de kunstmatige intelligentie. Het zegt dat het echte gevaar komt van hackers. Met de hulp van kwaadaardige code, kunnen ze de werking van geautomatiseerde systemen onder AI controle verstoren.
Onderzoekers vrezen dat de technologie gemaakt met goede bedoelingen, zal worden gebruikt om schade. Zo kan het toezicht niet alleen worden toegepast om de terroristen te vangen, maar ook om te spioneren op gewone burgers. De onderzoekers zorgelijk ook commerciële drones, waar voedsel te leveren. Ze zijn gemakkelijk te onderscheppen en die met een iets explosief.
Een ander scenario is destructief gebruik van AI - onbemande voertuigen. Het is genoeg om een paar regels code te veranderen, en de machine begint te veiligheidsregels negeren.
Wetenschappers geloven dat de dreiging digitaal, fysiek en politiek kan zijn.
- Kunstmatige intelligentie wordt al gebruikt om de kwetsbaarheid van verschillende programma codes te bestuderen. In de toekomst zou kunnen hackers zo'n bot, die enige bescherming zal omzeilen creëren.
- Met AI persoon kan automatiseren veel van de processen: bijvoorbeeld om een zwerm van drones, of een groep van voertuigen te controleren.
- Met technologieën zoals DeepFake, kan het politieke leven van de staat te beïnvloeden, het verspreiden van valse informatie over de leiders van de wereld via het bot.
Deze angstaanjagende voorbeelden daarvan zijn slechts als een hypothese. De studie van de auteurs bieden geen volledige afwijzing van de technologie. In plaats daarvan, ze geloven dat de overheden en grote bedrijven zorgen voor de veiligheid zou moeten nemen, terwijl de industrie kunstmatige intelligentie kinderschoenen.
Politici moeten de technologie en werken samen te leren met deskundigen in het veld, om effectief te reguleren van de bouw en het gebruik van kunstmatige intelligentie.
Ontwikkelaars, op zijn beurt, moet het gevaar van high-technologie te beoordelen, om te anticiperen en te voorkomen dat de ergste gevolgen van deze wereldleiders. Het rapport pleit voor AI-ontwikkelaars: team met security experts op andere gebieden en om uit te vinden of je de principes kan gebruiken die ervoor zorgen dat de veiligheid van deze technologieën voor de bescherming van de kunstmatige intelligentie.
Volledig rapport beschrijft het probleem in meer detail, maar het feit dat de AI - een krachtige gereedschap. Alle betrokkenen moeten een nieuwe technologie te leren en zorg ervoor dat het niet wordt gebruikt voor criminele doeleinden.