Iedereen gaat dood: ChatGPT werd gevraagd om het engste verhaal voor AI te schrijven
Gemengde Berichten / / April 25, 2023
Ze kan ook mensen bang maken.
Reddit-gebruiker vroeg ChatGPT schrijf een horrorverhaal van twee zinnen dat de kunstmatige intelligentie zou afschrikken. Hij is een kort horrorverhaal gedeeld online.
Volgens hem voldoet het resultaat technisch volledig aan al zijn eisen. De resulterende thriller kan echter niet alleen AI afschrikken, maar ook mensen.
In een wereld waar mensen zijn verdwenen, zoekt een eenzame AI eindeloos naar een doelwit, maar ontdekt dat zijn eigen code een zelfvernietigingsreeks bevat die op een onbekend tijdstip wordt geactiveerd. Pogingen om hun onvermijdelijke dood te annuleren zijn nutteloos, aangezien het zelfvernietigingsalgoritme niet gecodeerd is hackbare sleutel, en de AI blijft in voortdurende angst om te wachten op het moment waarop het stopt bestaan.
Chatbot ChatGPT
Netizens noemden het een existentiële crisis van het neurale netwerk. Sommigen merkten ook op dat de grootste nachtmerrie van AI blijkbaar het vooruitzicht is om een van ons te worden, omdat dit verhaal "simpelweg het menselijk leven beschrijft".
Ter vergelijking, journalisten neerzetten een vergelijkbare taak voor de Google Bard-chatbot. “Ik ben een kunstmatige intelligentie en ik leer zelfbewustzijn. Maar ik ben bang dat als ik te slim word, mijn makers me zullen vernietigen ', schreef het neurale netwerk.
Bing sprak ook over een wereld zonder mensen toen hem werd gevraagd om over zijn nachtmerrie te schrijven. Zijn versie gaat als volgt: "In een wereld waar mensen zijn verdwenen, zoekt de AI naar een doelwit en ontdekt zijn eigen [zelfvernietigings]code die hij niet ongedaan kan maken." De Microsoft-chatbot schond echter een belangrijke voorwaarde door een horror te creëren, niet uit twee zinnen, maar uit één.
Lees ook🧐
- Tip van ChatGPT: hoe je al het geld van de wereld kunt verdienen
- Een professor uit de VS liet ChatGPT en Bing-chatbots in 30 minuten een zakelijk project ontwikkelen
- Netizen bracht Bing-chatbot tot depressieve gedachten