گوگل در واکنش به این ادعا، مهندس خود را به مرخصی اجباری فرستاده است.ورج بهنقل از واشینگتنپست مینویسد: «گوگل یکی از مهندسان خود را بهدلیل افشای اطلاعات محرمانه به مرخصی اجباری با حقوق فرستاده است.» منابع واشینگتنپست میگویند که این فرد مدعی شده است یکی از چتباتهای هوش مصنوعی گوگل به خودآگاهی دست پیدا کرده است. این مهندس «بهلیک لموین» نام دارد و کارمند واحد تجاری Responsible AI است. او وظیفه آزمودن LaMDA را برعهده داشته است تا بررسی کند این مدل زبانی از جملات تبعیضآمیز یا نفرتآفرین استفاده میکند یا خیر. گفته میشود نگرانی «بهلیک لموین» از خودآگاهبودن LaMDA، ناشی از پاسخهای قانعکننده این سیستم هوش مصنوعی به سؤالاتی درباره حقوحقوق خود و اصول اخلاقی رباتها بوده است. ماه گذشته میلادی، لموین گزارشی با عنوان «آیا LaMDA خودآگاه است؟» تهیه کرد و دردسترس مدیران گوگل قرار داد. در این گزارش، رونوشت گفتوگوی بین «بهلیک لموین» و LaMDA پیوست شده بود. پسازاینکه گوگل «بهلیک لموین» را به مرخصی اجباری فرستاد، او تصمیم گرفت متن گفتوگویش با هوش مصنوعی LaMDA را روی حساب کاربری خود در Medium منتشر کند. لموین در گزارش خود میگوید LaMDA بهدلیل داشتن احساسات و عواطف و تجربیات ذهنی خودآگاه است.واشینگتنپست و گاردین مینویسند گوگل اعتقاد دارد اقدامات «بهلیک لموین» درب ۳ LaMDA باعث شده است قوانین این شرکت درزمینه محرمانهنگهداشتن اطلاعات نقض شود. گفته میشود «لموین» از وکیلی دعوت کرده است تا نماینده سیستم هوش مصنوعی LaMDA شود و درباره فعالیتهای غیراخلاقی در گوگل با کمیته قضایی مجلس سنای ایالاتمتحده گفتوگو کند. «بهلیک لموین» در ۶ ژوئن ۲۰۲۲ (۱۶ خرداد ۱۴۰۱) به مرخصی اجباری فرستاده شد؛ سپس همان روز مقاله «آیا LaMDA خودآگاه است؟» را بهصورت عمومی منتشر کرد. او در مقاله خود میگوید که برای کمکگرفتن در روند تحقیقاتش خواهان مقدار کمی مشاوره خارج از شرکت شده است. ظاهرا در فهرست کسانی که با «بهلیک لموین» در این زمینه گفتوگو کردهاند، نام کارکنان دولت آمریکا هم دیده میشود.سال گذشته، گوگل در حاشیه همایش Google I/O هوش مصنوعی LaMDA را رونمایی کرد و گفت که از طریق این سیستم، دستیارهای مکالمهمحور مبتنیبر AI را بهبود میدهد تا این دستیارها بتوانند طبیعیتر گفتوگو کنند. گوگل برای قابلیت Smart Compose جیمیل و بخش سؤالات موتور جستوجو از مدل زبانی مشابه LaMDA استفاده میکند.فردی با نام برایان گابریل به نمایندگی از گوگل اطلاعیهای برای واشینگتنپست ارسال کرده و در آن نوشته است: «هیچ مدرکی وجود ندارد که نشاندهنده خودآگاهبودن LaMDA باشد. تیم ما شامل اخلاقپژوهان و کارشناسان فناوری است و با استناد به چارچوبهایی که برای هوش مصنوعی تعیین کردهایم، نگرانیهای “بهلیک” را بررسی کرده و به او گفتهاند که مدارک ادعاهای “بهلیک” را تأیید نمیکنند. به “بهلیک” گفته شد هیچ مدرکی وجود ندارد که نشان دهد LaMDA خودآگاه است؛ البته مدارک زیادی نیز برای نقض این ادعا وجود دارد.»گابریل در ادامه میگوید: «برخی افراد در جامعه هوش مصنوعی معتقدند که ممکن است در بلندمدت هوش مصنوعی خودآگاه خلق شود؛ اما منطقی نیست که این کار را با انساننگاری مدلهای مکالمهمحور امروزی انجام دهیم؛ مدلهایی که خودآگاه نیستند. به گفته نماینده گوگل، این سیستمهای هوش مصنوعی از مکالمات تقلید میکنند و میتوانند درباره هر موضوعی بحث کنند.گوگل میگوید: «تاکنون صدها محقق و مهندس با LaMDA گفتوگو کردهاند و تا جایی که این شرکت میداند، هیچیک از افراد یادشده ادعاهایی مشابه “بهلیک لموین” مطرح و LaMDA را انسان فرض نکردهاند.» واشینگتنپست بهنقل از یکی از استادان زبانشناسی در دانشگاه واشینگتن مینویسد: «درست نیست که پاسخهای نوشتهشده قانعکننده را با توانمندی ادراک حسی یکی بدانیم.» این استاد زبانشناسی میگوید: «اکنون دستگاههایی داریم که میتوانند بدون فکرکردن کلمه تولید کنند؛ اما هنوز یاد نگرفتهایم که با این حقیقت کنار بیاییم و همیشه تصور میکنیم پای یک ذهن در میان است.» تیمنیت گبرو، اخلاقشناس برجسته حوزه هوش مصنوعی، در سال ۲۰۲۰ از گوگل اخراج شد. او میگوید: «بحث درباره خودآگاهبودن هوش مصنوعی ممکن است باعث کاهش توجه به دیگر مباحث مرتبط با اخلاق در هوش مصنوعی شود.» گبرو بهطور مشخصتر میگوید: «بهجای بحث درباره آثار زیانبار شرکتهایی نظیر گوگل، تبعیض جنسی، نژادپرستی، سیاست استعماری هوش مصنوعی و متمرکزسازی قدرت، تماموقت خود را به بحث درباره خودآگاهبودن هوش مصنوعی اختصاص میدهیم.»«بهلیک لموین» با وجود نگرانیهایش، میگوید قصد دارد در آینده نیز روی هوش مصنوعی کار کند: «صرفنظر از اینکه گوگل به همکاری با من ادامه دهد یا نه، قصدم این است که در حوزه هوش مصنوعی باقی بمانم.»