تاریخ : پنج شنبه, ۳۰ فروردین , ۱۴۰۳ Thursday, 18 April , 2024

دوربینی که احساس واقعی فرد را فاش می‎کند

  • 12 مرداد 1397 - 6:42
دوربینی که احساس واقعی فرد را فاش می‎کند

فناوری تشخیص چهره روز به روز پیشرفته‎تر می‌شود؛ تاجایی که این روزها برخی شرکت‌ها ادعا می‎کنند این فناوری قادر است احساسات فرد را بخواند و رفتارهای مشکوک را تشخیص دهد. اما این ویژگی چطور حریم خصوصی و آزادی‌های مدنی ما را تحت تأثیر قرار خواهد داد؟

به گزارش بی بی سی، فناوری تشخیص چهره سال‎هاست که پا به عرصه وجود گذاشته. کارشناسان می‎گویند این تکنولوژی در سال‌های اخیر به دلیل پیشرفت‌‌هایی که در حوزه دید کامپیوتری و هوش مصنوعی صورت گرفته، با سرعت بیشتری به روز شده است.

امروزه از این فناوری برای تشخیص هویت افراد در مرزها، باز کردن قفل تلفن‎های همراه، شناسایی مجرمان و همین‌طور تأیید نقل و انتقالات بانکی استفاده می‎شود.

در این میان برخی شرکت‎های فناوری ادعا می‎کنند این تکنولوژی توانایی ارزیابی وضعیت احساسی ما را نیز دارد.

از دهه ۱۹۷۰ به این طرف، روانشناسان می‎گویند قادرند از طریق مطالعه ” جزئیات حرکات چهره” در عکس یا فیلم، احساسات پنهان افراد را تشخیص دهند.

شرکت‎های فناوری می‎گویند الگوریتم‎ها و دوربین‎های اچ دی دقت و سرعت زیادی به این فرایند بخشیده‎اند.

اولیور فیلیپوو، کارشناس نظارت تصویری در شرکت ” آی اچ اس مارکیت” می‎گوید: “این تکنولوژی همین الان هم در امور تجاری مورد استفاده قرار می‎گیرد. مثلا سوپرمارکت‎ها از آن نه برای تشخیص هویت که برای تجزیه تحلیل سن، جنس و حال و هوای مشتریان خود بهره می‎گیرند. این فناوری می‎تواند به بازاریابی هدفمند و تبلیغات نامحسوس کمک زیادی بکند.”

آژانس تحقیقات بازاریابی “کانتار میلوارد براون” از یک تکنولوژی که توسط شرکت آمریکایی “افکتیوا” راه‎اندازی شده برای ارزیابی واکنش افراد به تبلیغات تلویزیونی استفاده می‎کند.

افکتیوا با اجازه خود فرد از او فیلم می‎گیرد و برای ارزیابی حس و حالش، حالت چهره او در هر فریم از تصویر را “کدگذاری” می‎کند. گراهام پیج، مدیر بخش نوآوری در شرکت کانتار میلوارد براون می‎گوید: “ما با افراد مصاحبه می‎کنیم اما بیشتر از آن، از نگاه کردن به حالت چهره آن‎ها به جزئیات بیشتری پی می‎بریم. کاملا می‎شود فهمید کدام بخش از آگهی دارد کارش را درست انجام می‎دهد و آن تأثیر احساسی که باید را روی بیننده گذاشته.”

چندین شرکت استارت‎آپ، اخیرا فناوری ” تشخیص احساسات” را به بازار عرضه کرده‎اند که سر و صدای زیادی هم به پا کرده. به عنوان مثال شرکت بریتانیایی “وی‎سی” (ما می‌بینیم) ادعا می‎کند فناوری هوش مصنوعی‎اش توانایی شناسایی رفتارهای مشکوک را دارد و این کار را از طریق خواندن حالات چهره که با چشم در حالت عادی قابل رویت نیستند انجام می‎دهد.

احساساتی مثل شک و خشم ممکن است توسط فرد پنهان شود و مغایر با حرف‎هایی باشند که او به زبان می‎آورد.

شرکت وی‎سی ادعا می‎کند یک نهاد شناخته شده از این فناوری برای تجزیه و تحلیل واکنش افراد در هنگام بازجویی استفاده کرده است.

دیوید فالتن، مدیر عامل این شرکت به بی‌بی‌سی گفت:” فناوری ما با بهره‎گیری از تصاویر ویدئویی با کیفیت پائین قادر است از طریق خواندن حالات چهره، طرز قرارگیری بدن و حرکات دست و صورت، وضعیت ذهنی فرد و قصد و نیت او را تشخیص دهد. در آینده، دوربین‎های تصویربرداری ایستگاه‎های مترو هم می‎توانند با استفاده از این تکنولوژی رفتارهای مشکوک را شناسایی و مقامات را از خطر احتمالی حمله تروریستی آگاه کنند. این فناوری همچنین می‎تواند در رویدادهای مختلف از جمله مسابقات ورزشی و راهپیمایی‎های سیاسی در میان جمعیت مردم مورد استفاده قرار بگیرد.”

با همه این تفاسیر اولیور فیلیپو شک دارد این تکنولوژی کاملا دقیق عمل کند: ” وقتی صحبت از تشخیص چهره به میان می‎آید، هنوز هم جا برای اشتباه وجود دارد؛ حتی بهترین شرکت‎ها هم دقت تشخیص‎شان را بین ۹۰ تا ۹۲ درصد برآورد می‎کنند. وقتی هم که نوبت به ارزیابی احساسات می‎رسد، این درصد خطا به شکل قابل توجهی بالاتر می‎رود.”

ظهور این فناوری باعث نگرانی فعالان مدافع حریم خصوصی شده است؛ کسانی که معتقدند تشخیص چهره می‎تواند به قضاوت‎های اشتباه و متعصبانه منجر شود. فردریکه کالتوینر از اعضاء بنیاد خیریه “پرایوسی اینترنشنال” در این باره می‎گوید: “می‎توانم تصور کنم این تکنولوژی چه کاربردهای مفیدی دارد اما نظارت بر احساسات، تشخیص چهره و پیش‎داوری از روی آن، حریم خصوصی افراد را به شکل بی‎سابقه‎ای تحت تأثیر قرار داده است.”

حتی فناوری ساده و قابل فهم تشخیص چهره هم به خودی خود به اندازه کافی جنجال برانگیز است.

در جشنواره سالانه موسیقی رادیو بی‌بی‌سی که ماه مه در ولز برگزار شد، بسیاری از حضار از وجود دوربین‎های نظارتی که چهره‌شان را اسکن می‎کرد بی‎خبر بودند.

پلیس ولز در این عملیات نظارتی عظیم از سیستم تشخیص هویت اتوماتیک استفاده کرد که با بهره‌گیری از دوربین‎های مداربسته و نرم‌افزار محصول شرکت “ان ای سی” هویت افراد مظنون را شناسایی می‎کرد. اسکات لویدز، مدیر این پروژه گفت ۱۰ دقیقه بعد از به کار انداختن این فناوری یک مرد شناسایی و دستگیر شد.

با این حال گروه حقوق بشری ” لیبرتی” معتقد است این فناوری در برخی رویدادها تشخیص اشتباهی داده، از جمله فینال لیگ قهرمانان اروپا که سال گذشته در کاردیف برگزار شد. (به گزارش بی‌بی‌سی، در جریان این بازی تکنولوژی اسکن چهره بیش از ۲۰۰۰ نفر را به طور اشتباهی به عنوان مجرم بالقوه شناسایی کرد.)

با همه این تفاسیر پاتریک گروتر، رئیس بخش سنجش بیولوژیکی موسسه استاندارد و فناوری آمریکا که روی تشخیص هویت تحقیق می‎کند، می‎گوید این تکنولوژی روز به روز قابل اعتمادتر می‎شود.

او پیشرفت‎های حوزه فناوری را مدیون ابداع سیستمی می‎داند که “شبکه عصبی پیچشی” نام دارد. شبکه عصبی پیچشی یک رده پیشرفته از یادگیری ماشینی است که دقت را به میزان زیادی بالا می‌برد: ” این الگوریتم‎ها کامپیوترها را قادر می‎سازند تا تصاویر را در اندازه‎ها و زوایای مختلف تجزیه و تحلیل کنند. به این ترتیب چهره‎ها با دقت بیشتری شناسایی می‎شوند، حتی اگر بخشی از آن‎ها توسط عینک یا روسری پوشیده شده باشد. از سال ۲۰۱۴ به این طرف میزان خطا ده برابر کاهش پیدا کرده. با این حال هیچ الگوریتمی بی‌عیب و نقص نیست.”

دیوید فالتن هدف از راه‎اندازی این تکنولوژی را صرفا کمک به افراد برای ارزیابی هر چه آگاهانه‎تر تصاویر ویدئویی می‌داند. او می‎گوید نرم‎افزار وی‌سی در تشخیص احساسات مثل یک انسان عمل می‏کند و “دقتی در حدود ۶۰ تا ۷۰ درصد” دارد: ” در حال حاضر ما تنها قادر به شناسایی رفتار مشکوک هستیم و نمی‎توانیم قصد و نیت افراد را تشخیص دهیم تا جلوی اتفاقات بد را بگیریم. اما داریم به این سمت پیش می‎رویم و در این زمینه آزمایش‎هایی هم انجام داده‌ایم.”

این طور که پیداست یک قدم بیشتر به ایده” پیش‌بینی جنایات و جرایم پیش از وقوع آن‌ها” نزدیک شده‎ایم، مفهومی که در فیلم علمی تخیلی “گزارش اقلیت” مطرح شد. اما آیا این موضوع می‎تواند نگرانی سازمان‎های مدافع آزادی‎های مدنی را بیشتر کند؟

فردریکه کالتوینر می‎گوید: “سوال کلیدی که همیشه از خودمان می‎پرسیم این است: چه کسی و با چه هدفی این فناوری را راه‎ می‎اندازد. آیا می‎خواهد به ما کمک کند یا هدفش قضاوت، ارزیابی و کنترل ماست؟”

دیدگاه