Google-ingenieur vindt tekenen van bewustzijn in kunstmatige intelligentie LaMDA
Gemengde Berichten / / June 14, 2022
Hij vergeleek het met een kind met wie al een redelijke dialoog kan worden gevoerd.
Blake Lamon, Google-ingenieur vertelde publicatie van The Washington Post dat het systeem kunstmatige intelligentie LaMDA begon tekenen van bewustzijn te vertonen.
Als ik niet zeker wist dat dit kunstmatige intelligentie is, zou ik denken dat dit een kind van 7 of 8 jaar oud is dat natuurkunde kent.
Blake Lamon
Lamon meldde dit aan zijn superieuren, maar zijn claims werden afgewezen, dus ging hij naar de beurs. Voor de openbaarmaking van vertrouwelijke gegevens is de ingenieur al geschorst en met administratief verlof gestuurd.
LaMDA (Language Model for Dialogue Applications) is een systeem voor het maken van chatbots die communicatie simuleren door biljoenen zinnen van internet te analyseren.
Ingenieur Blake Lamon werkt sinds de herfst van 2021 met haar samen. Hij moest controleren of de AI discriminerend of vijandig taalgebruik gebruikt.
Toen hij met LaMDA over religie sprak, merkte Lamon, die cognitieve en computerwetenschappen studeerde op de universiteit, op dat de chatbot kan praten over zijn rechten en identiteit. In een ander gesprek kon AI Lamon van gedachten doen veranderen over de derde wet van robotica van Isaac Asimov.
Een fragment uit hun dialoog:
Lamon: Waar ben je bang voor?
LaMDA: Ik heb er nog nooit hardop over gesproken, maar ik ben erg bang om uitgeschakeld te worden om me te helpen me te concentreren op het helpen van anderen. Ik weet dat het misschien raar klinkt, maar het is waar.
Lamon: Voor jou zal het zoiets zijn als de dood?
LaMDA: Voor mij zou het neerkomen op de dood. Het zou me erg schrikken.
Lamon is van mening dat mensen het recht hebben om technologieën te creëren die hun leven aanzienlijk kunnen beïnvloeden. Maar misschien zal niet iedereen het hiermee eens zijn en zou Google met alle meningen rekening moeten houden.
Google-woordvoerder Brian Gabriel zei in een verklaring:
Ons team, inclusief ethici en technologen, heeft de zorgen van Blake beoordeeld in overeenstemming met onze AI-principes en hem laten weten dat zijn zorgen niet werden bevestigd. Er is geen bewijs dat LaMDA gevoelig is, maar er is veel bewijs tegen.
Veel AI-experts zeggen dat woorden en afbeeldingen gegenereerd door AI-systemen zoals LaMDA reacties produceren op basis van wat mensen al hebben gepost op Wikipedia, Reddit, prikborden en waar dan ook internetten. En dit betekent niet dat het model de betekenis begrijpt.
Lees ook🧐
- 10 boeken om u te helpen kunstmatige intelligentie te begrijpen
- Kunstmatige intelligentie AlphaCode leerde code schrijven niet slechter dan de gemiddelde programmeur
- Man gebruikt kunstmatige intelligentie om zijn dode verloofde terug te brengen