Google zelf heeft hierop gereageerd met de Engineer in kwestie te schorsen op basis van een NDA schending. De engineer heeft namelijk een chat conversatie met LaMDA publiek gepubliceerd zonder toestemming van Google (maar wél met ogenschijnlijke toestemming van LaMDA).
Zijn we al zover ... of niet ... als ik de chat sessie zelf lees ben ik alvast niet 100% zeker, het geeft alleszins wel aan hoe enorm goed de simulatie is.
Chatsessie kan je hier lezen.
* Kan een chatsessie voldoende zijn om zelfbewustzijn aan te tonen ?
* Moeten we rechten toekennen aan een algoritme, ook al is dat algoritme 'ogenschijnlijk' zelfbewust ? En zijn wij eigenlijk slim genoeg om het onderscheid te kunnen maken tussen een zeer goede simulatie en echt bewustzijn.
* Is er uberhaupt nog een verschil tussen een enorm goede simulatie en effectief bewustzijn ?
Gentlepeople, start your (debate) engines ...
