در دنیای امروز، برای آنکه بتوانیم هر چیز یا هر کسبوکاری را بهخوبی تحلیل کنیم، لازم است بر پایه دادهها حرف بزنیم. امروزه دیگر نمیتوانیم بر پایه حدس و گمان نظرهای قاطعانه بدهیم چراکه علم آنقدر پیشرفت کرده که میتوان به کمک ابزارهای مختلف، دادههای دقیقتر به دست آورد.
یکی از مباحث مطرح در موضوع داده و اطلاعات، موضوع کلان داده یا همان Big data است که احتمالا اسم آن به گوشتان خورده است اما شاید دقیقا با آن آشنا نباشید. در سالهای اخیر حجم کلانی از دادهها در زمینههای گوناگون از جمله بهداشت و درمان، مدیریت عمومی، خردهفروشی، بیوشیمی و دیگر زمینههای علمی و پژوهشی میانرشتهای انباره شده است. نرمافزارهای کاربردی مبتنی بر وب مانند برنامههای «محاسبات اجتماعی» (Social Computing)، اسناد و متون اینترنتی و اندیسگذاری جستوجوهای وب دائما با کلان داده مواجه هستند.
محاسبات اجتماعی شامل «تحلیل شبکههای اجتماعی» (Social Network Analysis | SNA)، «اجتماعات آنلاین» (Online Communities)، «سیستمهای توصیهگر» (Recommender system)، «سیستمهای شهرت» (Reputation Systems)، «بازارهای پیشبینی» (Prediction Markets) و نمایهسازی جستوجوهای وب شامل ISI ،IEEE Xplorer ،Scopus ،Thomson و Reuters میشود. با در نظر گرفتن مزایای کلانداده (مِهداده)، باید گفت که این مبحث فرصتهای جدیدی را در وظایف پردازش دانش برای پژوهشگران فراهم کرده و میکند. اگرچه این فرصتها اغلب چالشهایی را نیز به همراه دارند.



بیگ دیتا (Big Data) چیست؟
اجازه دهید در مسیر توضیح آنکه بیگ دیتا چیست، استفاده از عبارت بیگ دیتا را جایگزین کلان داده کنیم، چراکه برایمان ملموستر خواهد بود.
اگر این عبارت را کلمه به کلمه از زبان انگلیسی ترجمه کنیم، مفهوم آن دادههای بزرگ یا همان کلان داده خواهد بود که تا حد خوبی، نشاندهنده مفهوم واقعی آن است. به مقدار زیاد یا مجموعه بزرگی از داده (Data) که از بیش از یک منبع جمعآوری شوند، بیگ دیتا میگویند.
این مجموعه دادهها عموما حجم بالایی دارند و باگذشت زمان و جمعآوری مداوم، بهصورت تصاعدی نیز حجم آنها افزایش پیدا میکند. نکته حائز اهمیت در موضوع بیگ دیتا آن است که این نوع از داده بسیار حجیم هستند و امکان تجزیه و تحلیل آنها به کمک ابزارهای سنتی و قدیمی وجود ندارد و صرفا به کمک ابزارهای جدید و تکنولوژی تازه قابلاستفاده هستند.
بیگ دیتا در یک کسبوکار، میتواند مسیر آن را عوض کند. بسیاری از سازمانها پس از جمعآوری بیگدیتا، به کمک آن استراتژی تعیین میکنند و بر پایه این دادهها، تصمیمگیریهای اساسی میکنند.
این نوع از داده میتواند بینش دقیق و صحیحی از مسائل آینده و گذشته کسبوکار ارائه دهد و در موفقیت و پیشبرد اهداف یک سازمان، نقش به سزایی داشته باشد.
ذخیرهسازی و تحلیل داده
در سالهای اخیر حجم دادهها به وسیله ابزارهای گوناگون -تولید داده – مانند دستگاههای موبایل، فناوریهای حسگرها، «سنجش از راه دور» (remote sensing) و «سامانههای بازشناسی با امواج رادیویی» (radio frequency identification readers) به صورت نمایی رشد کرده است. این دادهها با صرف هزینه بسیار زیاد ذخیره میشوند در حالیکه در نهایت حذف شده یا نادیده گرفته میشوند زیرا فضای کافی برای ذخیرهسازی آنها وجود ندارد. بنابراین، اولین چالش برای تحلیلهای کلانداده (مِهداده) رسانههای ذخیرهسازی با سرعت ورودی/خروجی بالا هستند. در این شرایط، دسترسیپذیری داده باید در اولویت اصلی برای کشف و ارائه دانش باشد.
دلیل این امر آن است که این دادهها برای تحلیلهای آتی باید به سادگی و به صورت بلادرنگ قابل دسترسی باشند. در دهههای گذشته، تحلیلگران از درایوهای دیسک سخت برای ذخیرهسازی دادهها استفاده میکردند، اما این دستگاهها کارایی ورودی/خروجی تصادفی را نسبت به ورودی/خروجیهای متوالی کندتر میکنند. برای غلبه بر این محدودیت، مفاهیم «درایو حالت جامد» (Solid State Drive | SSD) و حافظه تغییر فاز (Phase-Change Memory | PCM) معرفی شدند. اگرچه فناوریهای ذخیرهسازی موجود دارای کارایی لازم برای پردازش کلانداده نیستند.
دیگر چالش تحلیلهای کلانداده (تحلیلهای مِهداده)، مربوط به تنوع دادهها است. با رشد سریع مجموعه دادهها، وظایف دادهکاوی به طور قابل توجهی رشد کردند. علاوه بر این، کاهش داده، انتخاب داده و انتخاب ویژگی از جمله وظایف اساسی به ویژه هنگام کار با مجموعه دادههای بزرگ هستند. این مساله از چالش بیسابقهای برای پژوهشگران پردهبرداری میکند. زیرا، الگوریتمهای موجود ممکن است در زمان مناسب (زمان واقعی) هنگام کار با این دادههای ابعاد بالا پاسخگو نباشد.
از همین رو، خودکارسازی فرآیند تحلیل و توسعه الگوریتمهای یادگیری ماشین جدید برای حصول اطمینان از استحکام آنها یک چالش اساسی محسوب میشود. علاوه بر همه اینها، خوشهبندی مجموعه دادههای بزرگ که به تحلیل کلانداده (مِهداده) کمک میکند یکی از نگرانیهای اصلی این حوزه است (منظور از خوشهبندی آنچه در دادهکاوی مورد استفاده قرار میگیرد و نوعی یادگیری نظارت نشده محسوب میشود نیست. بلکه، تقسیمبندی دادهها به بخشهایی به منظور انجام پردازشها به طور سریعتر و بهینهتر است.

انواع بیگ دیتا
حال که به سوال بیگ دیتا چیست پاسخ دادهایم، وقت آن فرا رسیده که با انواع آن آشنا شویم.
مدل ساختاریافته یا Structured Data
یکی بهترین و محبوبترین مدلهای بیگ دیتا، مدل ساختاریافته آن است. همانطور که از اسم آن توقع داریم، کلان داده ساختاریافته، درواقع نوعی از دادههای حجیم است که ساختار مناسبی دارند، طول و قالب آنها مشخص است و مناسب استفاده در پروژههای نیازمند کلان داده هستند. اگر بخواهید با شکل ساختاری آنها کمی آشنا شوید، بد نیست با دادههای موجود در یک پایگاه داده، فایلهای با پسوند CSV و اکسلی بیشتر آشنا شوید.
مدل نیمه ساختاریافته یا Semi-Structured Data
اگر دادههای موجود در بیگ دیتا، با ساختار مشخص شده در پایگاه داده یا همان دیتابیسها مطابقت نداشته باشند، اما حاوی برچسبهایی برای جداسازی و طبقهبندی باشند، به آنها بیگ دیتای نیمه ساختاریافته میگوییم. از ملموسترین شکل دادههای نیمه ساختاریافته میتوان به دادههای موجود در ایمیلها، فایلهایی که گزارش دهنده هستند، مانند Log و فایلهای ورد اشاره کرد. این نوع دادهها قالبهایی مشخص مانند دادههای موجود و طبقهبندیشده در دیتابیسها را ندارند، اما بدون ساختار هم نیستند.
مدل بدون ساختار یا Unstructured Data
باوجودآنکه دادههای ساختاریافته محبوبیت بیشتر دارند، اما همانطور که توقع داریم جمعآوری و ساختاردهی آنها کاری دشوار است و راحتترین و متداولترین شکل موجود از بیگ دیتا، دادههای حجیم و بدون ساختار است. این نوع از داده عموما از ساختار داخلی برخوردار است، اما امکان قرار دادن آن در مدلهای از پیش تعیینشده وجود ندارد. از انواع این نوع داده، فایلهای صوتی، تصویری و ویدیویی را میتوان نام برد که ساختار مرتبطی با آنها وجود ندارد.

اهمیت عملکرد بیگ دیتا در چیست؟
کار کردن با بیگ دیتا، از اهمیت بالایی برخوردار است و برای آنکه بخواهید با کاربرد آن آشنا شوید، لازم است کمی بیشتر با ویژگیهای آن آشنا شوید.
بیگ دیتا از خصایصی مانند بزرگی حجم (Volume)، تنوع داده (Variety)، ارزش داده (Value) و نوسان (Volatility) برخوردار است که البته این موارد، تمامی ویژگیهای کلان داده را در برنمیگیرد.
این ویژگیها کمک میکند در دادههای موجود امکان استفاده از تکنیکهای تحلیلی یادگیری ماشین یا Machine Learning، دادهکاوی یا Data Mining و پردازش زبان طبیعی که بهاختصار NLP نام دارد، وجود داشته باشد.
استفاده از دادههای موجود در بیگ دیتا و تجزیه و تحلیل آنها، به سازمانها و کسبوکارها کمک میکنند بتوانند از دادههای موجود بهینه استفاده کنند و فرصتهای پیش رو را امکانسنجی و پیادهسازی کنند و افقهای تازهای را پیش روی سازمان یا کسبوکار خود قرار دهند.
این موضوع نشان میدهد که اهمیت دارد که عملکرد بیگ دیتا به چه صورتی باشد و در عملکرد بیگدیتا مراحل زیر اهمیت دارند:
- تنظیم راهبرد بیگ دیتا
- تشخیص منابع استخراج بیگ دیتا
- دسترسپذیری، مدیریت و ذخیرهسازی دادهها
- تجزیه و تحلیل دادههای حجیم
- تصمیمگیری هوشمندانه براساس دادهها
سه دلیل اصلی اهمیت بیگ دیتا عبارتند از:
- کاهش هزینهها
- ایجاد شرایط برای تصمیمگیری بهتر و سریعتر
- ایجاد محصولات خدمات جدید و بهتر
به همین دلیل است که استفاده از بیگ دیتا منجر به کاهش هزینههای ذخیرهسازی داده، ایجاد شرایطی برای تصمیمگیری سریع و صحیح به کمک تجزیه و تحلیل سریع اطلاعات و در نتیجه ایجاد محصولات بهتر و رضایت بالاتر مشتریان میشوند.

کشف دانش و پیچیدگی محاسباتی
کشف و ارائه دانش از جمله مسائل اساسی در بحث کلانداده (مِهداده) هستند. این مسائل تعدادی زیر مجموعه مانند احراز هویت، آرشیو کردن، مدیریت، حفاظت، بازیابی و ارائه اطلاعات دارد. ابزارهای گوناگونی برای کشف و ارائه دانش مانند «مجموعههای فازی», « (fuzzy set) مجموعههای خام», « (rough set) مجموعههای نرم», « (soft set) مجموعه نزدیک», « (near set) تحلیل مفهوم رسمی (formal concept analysis) «و دیگر موارد وجود دارد.
همچنین، روشهای ترکیبی برای پردازش مسائل جهان واقعی ساخته و توسعه داده شدهاند. همه این روشها مبتنی بر مساله هستند. برخی از آنها ممکن است برای مجموعه دادههای بزرگ در «کامپیوتر ترتیبی» (sequential computer) مناسب نباشد. ضمنا، برخی نیز دارای مشخصههای خوبی از مقیاسپذیری در کامپیوترهای موازی هستند. از آنجا که اندازه کلانداده همچنان به صورت نمایی در حال رشد است، ابزارهای موجود ممکن است برای پردازش این دادهها به منظور کسب اطلاعات معنادار کارآمد نباشند. مشهورترین رویکرد جهت مدیریت مجموعه دادههای بزرگ «انبارهای داده» (data warehouses) و «دادهگاهها (data marts) »هستند. انبار داده عمدتا مسئول ذخیرهسازی دادههایی است که از سیستمهای عملیاتی نشات گرفتهاند، در حالیکه دادهگاهها بر مبنای انبارهای داده و تسهیل تحلیلها هستند.
۴. پایگاه داده، دادهگاه و انبار داده
تحلیل مجموعه دادههای بزرگ نیازمند پیچیدگی محاسباتی بیشتری است. مساله اساسی مدیریت دادههای ناسازگار و عدم قطعیت ظاهر شده در مجموعه دادهها است. به طور کلی، در مدلسازی اصولی مساله پیچیدگی محاسباتی مورد بررسی قرار میگیرد. ایجاد یک سیستم ریاضیاتی که به طور جامع برای کلانداده (مِهداده) قابل اجرا باشد کاری دشوار است. اما تحلیلهای مبتنی بر دامنه به سادگی با درک پیچیدگیهای خاص قابل انجام هستند. مجموعهای از چنین توسعههایی میتواند تحلیلهای کلانداده (مِهداده) را برای حوزههای گوناگون امکانپذیر کند.
پژوهشها و بررسیهای زیادی در این راستا با استفاده از روشهای «یادگیری ماشین» (Machine Learning) و با بهرهگیری از حداقل حافظه مورد نیاز انجام شده است. هدف اصلی در این پژوهشها حداقل کردن هزینه و پیچیدگی محاسباتی است. ابزارهای تحلیل کلانداده (تحلیل مِهداده) کنونی دارای کارایی ضعیف در مدیریت پیچیدگیهای محاسباتی، عدم قطعیت و ناسازگاریها هستند. این امر منجر به ایجاد چالشهای بزرگتری برای توسعه روشها و فناوریهایی میشود که بتوانند با پیچیدگی محاسباتی، عدم قطعیت و ناسازگاری به شیوه موثر مواجه شوند
کاربرد بیگ دیتا و کلان داده ها چیست؟
وسعت کاربرد بیگ دیتا بسیار زیاد است. پاسخ به این سوال که بیگ دیتا چیست و چه کاربردی دارد، میتواند مسیر کسبوکاری شما را عوض کند. تجزیه و تحلیل بیگ دیتا در کسبوکار و در ادامه آن، در حوزههای مختلف کسبوکاری کاربرد دارد.
با استفاده از بیگ دیتا یا BIG DATA در کسبوکارتان، میتوانید به جذب و نگهداشت مشتریانتان، داشتن عملکردی هدفمند و متمرکز، شناسایی کردن ریسکهای ممکن در کسبوکارتان و خلاقیت و نوآوری در تولید محصولاتتان کمک کنید.
تفاوتی نمیکند که حوزه کسبوکار شما سلامتی باشد، بخشی دولتی است، مربوط به رسانه و سرگرمی میشود یا کسبوکاری مرتبط با صنعت حمل و نقل دارید، در تمامی این حوزهها کلان داده به شما در آنچه که بالاتر به آن پرداختیم کمک خواهد کرد.
با توجه به آنچه که بیگ دیتا میتواند برای شما و کسبوکارتان به ارمغان بیاورد، مشخصا استفاده از بیگ دیتا در بازاریابی و بازاریابی دیجیتال از اهمیت بالایی برخوردار است.
کاربرد بیگ دیتا در بازاریابی
بازاریابی یکی از مهمترین فعالیتهایی است که هر کسبوکار برای دستیابی به مشتریان بیشتر به آن نیاز دارد. بیگ دیتا به بازاریابان این فرصت را میدهد که به کمک دادههای تجزیه و تحلیل شده، به مشتریان بالقوه پیشنهادات کاملا شخصیسازیشده ارائه دهند و آنها را تبدیل به مشتریان واقعی کنند. از سویی دادههای کلان میتوانند در راستای کاهش نارضایتی مشتریان، که یکی از اصلیترین هدفهای هر بازاریابی است به کار روند.
کاربرد بیگ دیتا در دیجیتال مارکتینگ
امروزه بازاریابی به شیوه سنتی، جای خود را به بازاریابی دیجیتال یا همان دیجیتال مارکتینگ داده است. بیگ دیتا در دیجیتال مارکتینگ، کاربردهای متنوعی دارد که در ادامه به این کاربردها اشاره مختصری خواهیم داشت:
- به کمک بیگ دیتا میتوان به شناخت دقیقتری از مشتریان رسید و با این شناخت، با نیازهای آنها به شکل دقیقتری آشنا شد.
- با استفاده از بیگ دیتا، دیجیتال مارکترها میتوانند رفتارهای مشتریان را بهخوبی تجزیه و تحلیل کنند و در نتیجه آن، برای ارائه سرویسهای بهتر به آنان، دستهبندیهای مختلف از مشتریان با رفتارهای مشابه پیدا کنند.
- به کمک آنچه که میتوان از بیگ دیتا و تجزیه و تحلیل آن استخراج کرد، امکان سنجش عملکرد یک کمپین بازاریابی وجود دارد و در نتیجه با توجه به سرعت دستیابی به این دادهها، میتوان بهسرعت کمپینها را بهبود بخشید.
- تجزیه و تحلیل دادههایی که از رفتارهای مشتریان بالقوه و بالفعل حاصل میشود، به شما کمک خواهد کرد که به شکلی هدفمند بازاریابی کنید و البته، محتوای مناسبتری در اختیار مشتریان قرار دهید.
- همانطور که بیگ دیتا میتواند به بهبود کمپینهای بازاریابی دیجیتالی کسبوکار شما کمک کند، میتواند به تجزیه و تحلیل کمپینهای رقبا نیز کمک کند و در نتیجه آن، از رفتارهای درست و نادرست رقبای خود نیز باخبر شوید.
- مهمترین دلیلی که ممکن است یک دیجیتال مارکتر از خود بپرسد بیگ دیتا چیست، آن است که بخواهد باعث رشد فروش و در نتیجه افزایش سود کسبوکار شود.
- به کمک تجزیه و تحلیل بیگ دیتا میتوان بازاریابی هدفمندتری انجام داد و در صورت امکان، زنجیره تامین را کاهش داد و در نتیجه این فعالیتها، طبیعتا فروش سریعتر و بیشتر به نتیجه خواهد رسید.

چگونه بیگ دیتا را تجزیه و تحلیل کنیم
تا به حال برای پاسخ به سوال بیگ دیتا چیست و چه کاربردی دارد، بسیار به موضوع تجزیه و تحلیل آن اشاره کردیم و اکنون قرار است کمی با تجزیه و تحلیل این نوع از داده بیشتر آشنا شویم.
تجزیه و تحلیل کلان داده سه مرحله دارد:
- جمعآوری داده
- پردازش داده
- پاکسازی داده
- تجزیه و تحلیل داده
پس لازم است اول جمعآوری دادهها صورت گیرد که در هر سازمان و کسبوکاری و با توجه به نوع داده مورد نیاز، روش جمعآوری دادهها متفاوت است. یک سازمان ممکن است با کمک فضاهای ابری به جمعآوری بیگ دیتا بپردازد و سازمانی دیگر از اپلیکیشنهای موبایلی و اینترنت اشیا برای این منظور کمک بگیرد.
پس از جمعآوری دادهها و ذخیرهسازی آنها، نیاز است که به سازماندهی دادهها بپردازید. اگر دادههای شما از دسته بدون ساختار باشند، این مرحله تلاش دو چندانی را میطلبد.
زمانی که پردازش دادهها به پایان رسید، وقت پاکسازی دادههای غیر مرتبط و تکراری است که پیش نیاز این مرحله، قالببندی صحیح تمامی دادههای به دست آمده است.
اگر دادهها را به درستی جمعآوری، پردازش و پاکسازی کرده باشید، وقت تجزیه و تحلیل آنها فرا رسیده است. این کار به کمک فرایندهای تحلیلی امکانپذیر است و به کمک آن میتوان از دادههای حجیم، تصور و بینش وسیع و صحیحی برای امروز و آینده کسبوکارتان به دست آورید.
معرفی ابزار برای تجزیه و تحلیل بیگ دیتا
برای آنکه بدانید بیگ دیتا چیست و چطور آن را تحلیل کنید، نیاز دارید با ابزارهای برنامهنویسی که فریمورکهای متن باز دارند آشنا باشید. ابزارهایی که در تحلیل بیگ دیتا مورد استفاده قرار میگیرند عبارتند از:
- Hadoop
- آپاچی اسپارک (Apache Spark)
- آپاچی هایو (Apache Hive)
- SAS
این ابزارها که فریمورک متن باز دارند، برای مدیریت کردن دادههای حجیم مورد استفاده قرار میگیرند. علاوه بر این ابزارها، به کمک زبانهای برنامهنویسی R، پایتون و اسکالا نیز امکان مدیریت دادههای حجیم وجود دارد.
مقیاسپذیری و بصریسازی دادهها
یکی از مهمترین چالشهای مرتبط با روشهای تحلیل کلانداده، مقیاسپذیری و امنیت آنها است. در دهههای گذشته پژوهشگران توجه زیادی را به شتابدهی تحلیلهای داده معطوف کردند و این امر منجر به افزایش سرعت پردازندهها مطابق با «قانون مور» (Moore’s Law) شده است. همچنین، توسعه روشهای نمونهبرداری، تحلیل آنلاین و روشهای تحلیل چندراهکاری به منظور سرعت بخشیدن به تحلیل دادهها لازم است. روشهای افزایشی دارای خصوصیت مقیاسپذیری خوبی در تحلیلهای کلانداده هستند.
از آنجا که اندازه داده بسیار سریعتر از سرعت پردازندهها (CPU) توسعه میپذیرد، تغییر چشمگیری در فناوری پردازندههایی که دارای تعداد زیادی هسته توکار هستند وجود دارد. این تغییر در پردازندها منجر به توسعه «پردازش موازی» (parallel computing) شده است. تحلیلهای کاربردی زمان واقعی مانند شبکههای اجتماعی، امور مالی و جستوجوهای اینترنتی از جمله موارد نیازمند پردازش موازی هستند.
هدف از «بصریسازی دادهها» (Data Visualization)، ارائه آنها به طور مناسب با استفاده از نمودارهای آماری، «نظریه گراف» (graph theory) و گرافیک است. بصریسازی گرافیکی پیوندی میان داده و تفسیر مناسب آن برقرار میکند. برای مثال فروشگاههای آنلاینی مانند flipkart، آمازون و e-bay دارای میلیونها کاربر و میلیاردها محصول برای فروش در هر ماه هستند. این مساله منجر به تولید حجم زیادی از دادهها توسط این شرکتها میشود.
نحوه ارائه این دادهها و نتایج حاصل از آنها از جمله چالشهایی است که این مراکز با آن مواجه هستند. از این رو، برخی از شرکتها از ابزارهای بصریسازی داده شرکت نرمافزاری «تابلو» (Tableau) استفاده میکنند. این نرمافزارها توانایی تبدیل دادههای بزرگ و پیچیده به تصاویر بصری را دارند و به کارکنان سازمان (به ویژه تصمیمسازان و مدیران) در راستای بصریسازی جستوجوهای مرتبط، نظارت بر آخرین بازخوردهای مشتریان و تحلیل عواطف آنها کمک میکنند. اگرچه، ابزارهای تحلیل داده کنونی معمولا ضعفهای قابل توجهی در بحث مقیاسپذیری، زمان پاسخ و ویژگیها دارند.
امنیت اطلاعات
در تحلیلهای کلانداده (تحلیل مِهداده)، حجم عظیمی از دادهها دارای همبستگی هستند و برای کشف الگوهای معنادار تحلیل و کاوش میشوند. اغلب سازمانها دارای سیاستهای گوناگونی برای حفاظت از امنیت اطلاعات حساس خود هستند. حفاظت از اطلاعات حساس مساله مهمی در تحلیلهای کلانداده است زیرا ریسکهای امنیتی بسیار زیادی برای کلانداده وجود دارد. بنابراین، امنیت اطلاعات یک مشکل برای تحلیلهای کلانداده محسوب میشود. امنیت کلانداده با استفاده از روشهای «احراز هویت» (Authentication)، «کسب اجازه» (authorization) و «رمزنگاری» (encryption) قابل ارتقا است.
سنجههای امنیتی گوناگونی که نرمافزارهای کلانداده با آنها مواجه هستند مقیاسپذیری شبکه، تنوع دستگاهها، نظارت بر امنیت زمان واقعی و فقدان «سیستمهای تشخیص نفوذ» (Intrusion Detection System | IDS) مناسب و کارآمد است. چالشهای امنیتی موجب شدهاند تا «کلانداده» توجه پژوهشگران امنیت اطلاعات بسیاری را به خود جلب کند. این توجهات معطوف به ساخت مدلهای سیاست امنیتی و سیستمهای حفاظتی چند سطحی شده است. با وجود اینکه پژوهشهای زیادی در حوزه امنیت کلانداده (مِهداده) انجام شده، اما این حوزه همچنان نیازمند بهبودهای بیشتری است. چالش اساسی در این راستا توسعه یک مدل امنیت داده و حفظ حریم خصوصی چند سطحی برای کلان داده است.
فناوریهای مرتبط با کلانداده
تحلیلهای کلانداده و علم داده به کانون پژوهشهای صنعت و دانشگاه مبدل شدهاند. هدف علم داده پژوهش در کلانداده و استخراج دانش از آن است. کاربردهای کلانداده و علم داده شامل علم اطلاعات، مدلسازی عدم قطعیت، تحلیل دادههای غیر قطعی، یادگیری ماشین، یادگیری آماری، تشخیص الگو، انبارسازی داده و پردازش سیگنال میشود. یکپارچهسازی موثر فناوریها و تحلیلها امکان پیشبینی حوادث در حال وقوع آتی را فراهم میکند. تمرکز اصلی مطالبی که در ادامه میآید فناوریهای مرتبط و موضوعات نیازمند پژوهش در حوزه کلانداده است.
- اینترنت اشیا (IoT) برای تحلیلهای کلانداده
اینترنت، ارتباطات جهانی، کسبوکار، انقلابهای فرهنگی و تعداد قابل توجهی از خصوصیات فردی انسانها را شکل و ساختاری مجدد بخشیده است. در حال حاضر، فعالات حوزه «فناوری اطلاعات» (Information Technology) در تلاش برای کنترل تعداد بیشماری گجت خودکار در اینترنت و ساخت اینترنت اشیا (IoT) هستند.
به وسیله اینترنت ، دستگاهها درست مانند انسانها به کاربران اینترنت مبدل میشوند. اینترنت چیزها به دلیل داشتن فرصتها و چالشهای بیشمار توجه پژوهشگران و شرکتهای حوزه IT را در سالهای اخیر به خود جلب کرده است. میتوان به جرات گفت که اینترنت چیزها دارای ضرورت اقتصادی و اجتماعی به منظور انجام ساخت و سازهای آینده در حوزه فناوری اطلاعات، شبکه و ارتباطات است.
- رایانش الهام گرفته از زیست برای تحلیلهای کلان داده
رایانش الهام گرفته از زیست روشی است که در آن از طبیعت برای پرداختن به مسائل پیچیده جهان واقعی الهام گرفته شده است. سیستمهای زیستی بدون یک کنترل مرکزی، خود سازماندهی شده هستند. یک مکانیزم کاهش هزینه الهام گرفته از طبیعت، با انجام جستوجو راهکار سرویس داده بهینه را با در نظر گرفتن هزینههای مدیریت داده و نگهداری سرویس پیدا میکند. این روشها به وسیله ملکولهای زیستی مانند DNA و پروتئینها به منظور هدایت و انجام محاسبات رایانشی شامل ذخیرهسازی، بازیابی و پردازش داده توسعه داده میشوند.
- رایانش کوانتومی برای تحلیلهای کلانداده
یک کامپیوتر کوانتومی دارای حافظهای است که به صورت نمایی بزرگتر از سایز فیزیکی آن محسوب میشود و میتواند یک مجموعه نمایی از ورودیها را به طور همزمان دستکاری کند. این بهبود نمایی در سیستمهای کامپیوتری امکانپذیر است. اگر یک کامپیوتر کوانتومی واقعی وجود داشت، میتوانست مسائلی را حل کند که برای کامپیوترهای کنونی دشوار محسوب میشوند و البته مسائل مربوط به کلانداده (مِهداده) نیز از این دست هستند. انتظار میرود چالشهای فنی اصلی در مسیر راه ساخت کامپیوترهای کوانتومی به زودی حل شوند و بشر شاهد انقلابی در بحث محاسبات باشد. رایانش کوانتومی راهکاری برای ادغام مکانیک کوانتومی و پردازش اطلاعات فراهم میکند.
جمعبندی
استفاده از بیگ دیتا، از جمله روشهایی است که میتواند مسیر آینده یک کسبوکار را متحول کند و هرآنچه که بالاتر به آن پرداختیم، میتواند سرنخی باشد برای کسی که بخواهد پس از پاسخ به سوال بیگ دیتا چیست، از آنها استفاده کند و در موضوعات آن عمیق شود.
