تشير البيانات الكبيرة إلى مجموعات البيانات الضخمة والمعقدة التي لا تستطيع أنظمة إدارة البيانات التقليدية التعامل معها. عند جمع البيانات الكبيرة وإدارتها وتحليلها بشكل صحيح، يمكن أن تساعد المؤسسات على اكتشاف رؤى جديدة واتخاذ قرارات تجارية أفضل.
في حين جمعت المؤسسات التجارية البيانات منذ فترة طويلة، أدى ظهور الإنترنت وغيره من التقنيات المتصلة إلى زيادة كبيرة في حجم وتنوع البيانات المتاحة، مما أدى إلى ولادة مفهوم "البيانات الكبيرة".
اليوم، تجمع الشركات كميات هائلة من البيانات—غالبًا ما تقاس بالتيرابايت أو البتابايت—حول كل شيء بدءًا من معاملات العملاء وانطباعات وسائل التواصل الاجتماعي إلى العمليات الداخلية والأبحاث الخاصة.
على مدار العقد الماضي، أسهمت هذه المعلومات في تحسين التحول الرقمي عبر القطاعات. ففي الواقع، حصلت البيانات الكبيرة على لقب "النفط الجديد" لدورها في تحفيز نمو الأعمال والابتكار.
يساعد علم البيانات، وتحديدًا تحليلات البيانات الكبيرة المؤسسات على فهم مجموعات البيانات الكبيرة والمتنوعة. تستخدم هذه الحقول أدوات متقدمة مثل التعلم الآلي لاكتشاف الأنماط واستخراج الرؤى والتنبؤ بالنتائج.
في السنوات الأخيرة، أدى ظهور الذكاء الاصطناعي (AI) والتعلم الآلي إلى زيادة التركيز على البيانات الكبيرة. تعتمد هذه الأنظمة على مجموعات بيانات كبيرة وعالية الجودة لتدريب النماذج وتحسين الخوارزميات التنبؤية.
تختلف البيانات التقليدية والبيانات الكبيرة بشكل رئيسي في أنواع البيانات المعنية، وكمية البيانات التي تتم معالجتها، والأدوات المطلوبة لتحليلها.
تتكون البيانات التقليدية في المقام الأول من البيانات المنظمة المخزنة في قواعد البيانات العلائقية. تنظم قواعد البيانات هذه البيانات في جداول محددة بوضوح، مما يجعل من السهل الاستعلام عنها باستخدام الأدوات القياسية مثل SQL. عادةً ما ينطوي تحليل البيانات التقليدي على استخدام الطرق الإحصائية وهو مناسب بشكل جيد لمجموعات البيانات ذات التنسيقات المتوقعة والأحجام الصغيرة نسبيًا.
من ناحية أخرى، تشمل البيانات الكبيرة مجموعات بيانات ضخمة في تنسيقات مختلفة، بما في ذلك البيانات المنظمة وشبه المنظمة وغير المنظمة. يتطلب هذا التعقيد أساليب تحليلية متقدمة—مثل التعلم الآلي واستخراج البيانات وعرض مصور للبيانات—لاستخراج رؤى ذات مغزى. يتطلب الحجم الهائل للبيانات الكبيرة أيضًا أنظمة معالجة موزعة للتعامل مع البيانات بكفاءة على نطاق واسع.
تشكِّل الكلمات الخمس التالية الخصائص الخمسة التي تجعل البيانات الكبيرة فريدة عن أنواع البيانات الأخرى، وهي الحجم، والسرعة، والتنوع، والدقة، والقيمة. تشرح هذه السمات كيفية تميُّز البيانات الكبيرة عن المجموعات التقليدية من البيانات وما يلزم لإدارتها بشكل فعَّال.
البيانات الكبيرة هي "كبيرة" لأن هناك المزيد منها. إن الكمية الهائلة من البيانات التي يتم إنشاؤها اليوم—من تطبيقات الويب وأجهزة إنترنت الأشياء وسجلات المعاملات والمزيد— قد يكون من الصعب على أي مؤسسة إدارتها. غالبًا ما تعاني أنظمة تخزين ومعالجة البيانات التقليدية من صعوبة التعامل معها على نطاق واسع.
تساعد حلول البيانات الكبيرة، بما في ذلك التخزين المستند إلى السحابة، المؤسسات على تخزين وإدارة مجموعات البيانات هذه المتزايدة باستمرار وضمان عدم ضياع المعلومات القيِّمة بسبب حدود التخزين.
سرعة تدفق البيانات هي المعدل الذي تتدفق به البيانات إلى النظام، وسرعة انتقال البيانات الكبيرة.
اليوم، تصل البيانات أسرع من أي وقت مضى، بدءًا من تحديثات وسائل التواصل الاجتماعي في الوقت الفعلي إلى سجلات تداول الأسهم عالية التردد. هذا التدفق السريع للبيانات يوفر فرصًا للحصول على رؤى آنية تدعم اتخاذ القرارات السريعة. للتعامل مع ذلك، تستخدم المؤسسات أدوات مثل أطر عمل معالجة البيانات المتدفقة وأنظمة الذاكرة الداخلية لالتقاط وتحليل واتخاذ إجراءات بشأن البيانات في زمن شبه حقيقي.
يشير التنوع إلى التنسيقات المتعددة والمتنوعة التي يمكن أن تتخذها البيانات الكبيرة.
إلى جانب البيانات المنظمة التقليدية، يمكن للبيانات الكبيرة أن تتضمن بيانات غير منظمة، مثل النص الحرّ والصور ومقاطع الفيديو. يمكن أن تتضمن أيضًا بيانات شبه منظمة، مثل ملفات JSON و XML، التي تحتوي على بعض الخصائص التنظيمية ولكن بدون مخطط صارم.
تتطلب إدارة هذا التنوع حلولاً مرنة مثل قواعد بيانات NoSQL وبحيرات البيانات مع أطر العمل "مخطط عند القراءة"، والتي يمكنها تخزين ودمج تنسيقات بيانات متعددة لتحليل البيانات بشكل أكثر شمولاً.
تشير سمة "الدقة" إلى دقة البيانات وموثوقيتها. بسبب الكميات الكبيرة للبيانات ومصادرها المتعددة، قد تحتوي البيانات على ضوضاء أو أخطاء تؤثِّر في جودة اتخاذ القرارات.
تتطلب البيانات الكبيرة من المؤسسات تنفيذ عمليات لضمان جودة البيانات ودقتها. غالبًا ما تستخدم المؤسسات أدوات تنظيف البيانات والتحقق منها ومن صحتها لتصفية الأخطاء وتحسين جودة تحليلاتها.
تشير القيمة إلى الفوائد الواقعية التي يمكن للمؤسسات الحصول عليها من البيانات الكبيرة. وتشمل هذه الفوائد كل شيء بدءاً من تحسين العمليات إلى تحديد فرص التسويق الجديدة. تحليلات البيانات الضخمة أمر بالغ الأهمية لهذه العملية، وغالبًا ما يعتمد على التحليلات المتقدمة والتعلم الآلي والذكاء الاصطناعي لتحويل المعلومات غير المنسقة إلى رؤى قابلة للتنفيذ.
غالبًا ما يُستخدم مصطلح "البيانات الكبيرة" على نطاق واسع، مما يخلق غموضا حول معناه الدقيق.
البيانات الكبيرة هي أكثر من مجرد كميات هائلة من المعلومات. بل هي النظام البنائي المعقد من التقنيات والمنهجيات والعمليات المستخدمة لالتقاط كميات هائلة من البيانات المتنوعة وتخزينها وإدارتها وتحليلها.
ظهر مفهوم البيانات الكبيرة لأول مرة في منتصف التسعينيات عندما أدت التطورات في التكنولوجيا الرقمية إلى بدء المؤسسات بإنتاج البيانات بمعدلات غير مسبوقة. في البداية، كانت مجموعات البيانات هذه أصغر حجمًا، وعادةً ما تكون منظمة ويتم تخزينها بالتنسيقات التقليدية.
لكن مع نمو الإنترنت وانتشار الاتصال الرقمي، بدأت البيانات الكبيرة في الظهور بشكل حقيقي. تسبب انفجار مصادر البيانات الجديدة، من المعاملات عبر الإنترنت والتفاعلات عبر وسائل التواصل الاجتماعي إلى الهواتف المحمولة وأجهزة إنترنت الأشياء، في إنشاء مجموعة متنامية بسرعة من المعلومات.
أدى هذا الارتفاع في تنوع وحجم البيانات إلى دفع المؤسسات للبحث عن طرق جديدة لمعالجة البيانات وإدارتها بكفاءة. قدَّمت الحلول المبكرة مثل Hadoop معالجة البيانات الموزعة، حيث يتم تخزين البيانات عبر عدة خوادم أو "مجموعات"، بدلًا من نظام واحد.
يسمح هذا النهج الموزع بالمعالجة المتوازية—مما يعني أن المؤسسات يمكنها معالجة مجموعات البيانات الكبيرة بكفاءة أكبر من خلال تقسيم أحمال التشغيل عبر مجموعات—ولا يزال هذا النهج ضروريًا حتى يومنا هذا.
الأدوات الأحدث مثل Apache Spark، وهو محرك التحليلات مفتوح المصدر، قدمت تقنية الحوسبة في الذاكرة. ويسمح هذا بمعالجة البيانات مباشرةً في ذاكرة النظام الرئيسية (RAM) للحصول على أوقات معالجة أسرع بكثير من قراءة التخزين التقليدي على القرص.
مع تزايد حجم البيانات الكبيرة، بدأت المؤسسات أيضًا في البحث عن حلول تخزين جديدة. أصبحت بحيرات البيانات أمرًا بالغ الأهمية باعتبارها مستودعات قابلة للتوسع للبيانات المنظمة وشبه المنظمة وغير المنظمة، حيث توفِّر حل تخزين مرنًا دون الحاجة إلى مخططات محددة مسبقًا (راجع "تخزين البيانات الكبيرة" أدناه لمزيد من المعلومات).
كما ظهرت الحوسبة السحابية لإحداث ثورة في النظام البنائي للبيانات الكبيرة. بدأ مزودو الخدمات السحابية الرائدون في تقديم خيارات التخزين والمعالجة القابلة للتوسع والفعالة من حيث التكلفة.
يمكن للمؤسسات تجنب الاستثمار الكبير المطلوب للأجهزة المحلية. وبدلاً من ذلك، يمكنهم زيادة أو تقليل سعة تخزين البيانات وقوة معالجة البيانات حسب الحاجة، ودفع ثمن الموارد التي يستخدمونها فقط.
وقد أدت هذه المرونة إلى تعميم إمكانية الوصول إلى علوم البيانات والتحليلات، مما جعل الرؤى متاحة للمؤسسات من جميع الأحجام—وليس فقط الشركات الكبيرة ذات الميزانيات الضخمة لتكنولوجيا المعلومات.
النتيجة هي أن البيانات الكبيرة أصبحت الآن أحد الأصول الهامة للمؤسسات في مختلف القطاعات، مما يدفع المبادرات في مجالات ذكاء الأعمال والذكاء الاصطناعي والتعلم الآلي.
إدارة البيانات الكبيرة هي العملية المنهجية لجمع البيانات ومعالجتها وتحليلها التي تستخدمها المؤسسات لتحويل البيانات غير المنسقة إلى رؤى قابلة للتنفيذ.
من الأمور الأساسية في هذه العملية هندسة البيانات، والتي تضمن أن مسارات البيانات وأنظمة التخزين والتكامل يمكن أن تعمل بكفاءة وعلى نطاق واسع.
تتضمن هذه المرحلة التقاط كميات كبيرة من المعلومات من مختلف المصادر التي تشكل البيانات الكبيرة.
للتعامل مع سرعة وتنوع البيانات الواردة، تعتمد المؤسسات غالبًا على عمليات وتقنيات البيانات الكبيرة المتخصصة مثل Apache Kafka لتدفق البيانات في الوقت الفعلي و Apache NiFi لأتمتة تدفق البيانات.
تساعد هذه الأدوات المؤسسات على جمع البيانات من مصادر متعددة -سواء أكانت تدفقات بيانات مباشرة أم دفعات دورية- تضمن الحفاظ على دقتها وتناسقها في أثناء انتقالها عبر مسار البيانات.
مع تدفق البيانات إلى بيئات التخزين والمعالجة المنظمة، يمكن لأدوات تكامل البيانات أيضًا المساعدة في توحيد مجموعات البيانات من مصادر مختلفة، مما يؤدي إلى إنشاء عرض شامل واحد يدعم التحليل.
تتضمن هذه المرحلة أيضًا التقاط البيانات الوصفية—معلومات حول أصل البيانات وتنسيقها وخصائصها الأخرى. يمكن أن توفر البيانات الوصفية سياقًا أساسيًا لتنظيم البيانات ومعالجتها في المستقبل.
إن الحفاظ على جودة البيانات العالية أمر بالغ الأهمية في هذه المرحلة. يمكن أن تكون مجموعات البيانات الكبيرة عرضة للأخطاء وعدم الدقة التي قد تؤثر على موثوقية الرؤى المستقبلية. يمكن أن تساعد إجراءات التحقق من الصحة والتنظيف، مثل التحقق من صحة المخطط وإلغاء البيانات المكررة، في معالجة الأخطاء وحل التناقضات وملء المعلومات المفقودة.
بمجرد جمع البيانات، لا بد من تخزينها في مكان ما. حلول التخزين الأساسية الثلاثة للبيانات الكبيرة هي بحيرة البيانات ومستودعات البيانات ومستودعات بحيرة البيانات.
بحيرة البيانات هي بيئات تخزين منخفضة التكلفة مصممة للتعامل مع كميات هائلة من البيانات الأولية المنظمة وغير المنظمة. لا تقوم بحيرات البيانات بشكل عام بتنظيف البيانات أو التحقق من صحتها أو تطبيعها. بدلًا من ذلك، يقومون بتخزين البيانات بتنسيقها الأصلي، مما يعني أنه يمكنهم استيعاب العديد من أنواع البيانات المختلفة وتوسيع نطاقها بسهولة.
تُعد بحيرات البيانات مثالية للتطبيقات التي تتميز بكميات كبيرة ومتنوعة من البيانات ذات السرعة العالية، حيث يكون الأداء في الوقت الفعلي أقل أهمية. تُستخدم بشكل شائع لدعم تدريب الذكاء الاصطناعي والتعلم الآلي وتحليلات البيانات الكبيرة. ويمكن أن تعمل بحيرات البيانات أيضًا كمساحات تخزين للأغراض العامة لجميع البيانات الكبيرة، والتي يمكن نقلها من البحيرة إلى تطبيقات مختلفة حسب الحاجة.
مستودعات البيانات تقوم بتجميع البيانات من مصادر متعددة في مخزن بيانات واحد مركزي ومتسق. كما يقومون بتنظيف البيانات وإعدادها بحيث تكون جاهزة للاستخدام، وغالبًا عن طريق تحويل البيانات إلى تنسيق علائقي. تم تصميم مستودعات البيانات لدعم جهود تحليلات البيانات وذكاء الأعمال وعلم البيانات.
نظرًا لأن المستودعات تفرض مخططًا صارمًا، قد تكون تكاليف التخزين مرتفعة. وبدلًا من أن تكون حل تخزين عامًا للبيانات الكبيرة، تُستخدَم المستودعات بشكل رئيسي لجعل جزء من البيانات الكبيرة متاحًا بسهولة لمستخدمي الأعمال لأغراض ذكاء الأعمال والتحليلات.
مستودعات بحيرات البيانات تجمع بين مرونة بحيرات البيانات وهيكل والقدرات الخاصة بمستودعات البيانات، مما يتيح للمؤسسات تسخير أفضل ما في كلا النوعين من الحلول في منصة موحدة. تُعد مستودعات البحيرات تطورًا حديثًا نسبيًا، ولكنها أصبحت شائعة بشكل متزايد لأنها تلغي الحاجة إلى الحفاظ على نظامي بيانات متباينين.
يعتمد الاختيار بين البحيرات والمستودعات ومستودعات البحيرات على نوع البيانات والغرض منها واحتياجات الشركة للبيانات. تتفوق بحيرات البيانات في المرونة والتخزين الرخيص، بينما توفر مستودعات البيانات استعلامًا أسرع وأكثر كفاءة. وتجمع مستودعات البحيرات بين ميزات الاثنين ولكن يمكن أن يكون إعدادها وصيانتها معقداً.
تستخدم العديد من المؤسسات اثنين أو كل هذه الحلول الثلاثة معًا. على سبيل المثال، قد يستخدم البنك بحيرة بيانات لتخزين سجلات المعاملات وبيانات العملاء الأولية مع استخدام مستودع البيانات لدعم الوصول السريع إلى الملخصات المالية والتقارير التنظيمية.
تحليلات البيانات الكبيرة هي العمليات التي تستخدمها المؤسسات لاستخلاص القيمة من بياناتها الكبيرة. تتضمن تحليلات البيانات الكبيرة استخدام التعلم الآلي واستخلاص البيانات وأدوات التحليل الإحصائي لتحديد الأنماط والارتباطات والاتجاهات ضمن مجموعات البيانات الكبيرة.
باستخدام تحليلات للبيانات الكبيرة، يمكن للشركات الاستفادة من كميات هائلة من المعلومات لاكتشاف رؤى جديدة واكتساب ميزة تنافسية. أي أنها يمكن أن تتجاوز التقارير التقليدية إلى الرؤى التنبؤية والوصفية.
على سبيل المثال، يمكن لتحليل البيانات من مصادر متنوعة أن يساعد المؤسسة على اتخاذ قرارات استباقية في مجال الأعمال، مثل توصيات المنتجات المخصصة وحلول الرعاية الصحية المصممة خصيصًا.
في نهاية المطاف، يمكن لمثل هذه القرارات تحسين رضا العملاء وزيادة الإيرادات ودفع الابتكار.
تستطيع المؤسسات استخدام أدوات متنوعة لمعالجة البيانات الكبيرة لتحويل البيانات غير المنسقة إلى رؤى مفيدة.
تتضمن التقنيات الأساسية الثلاث المستخدمة في معالجة البيانات الكبيرة ما يلي:
Hadoop هو إطار عمل مفتوح المصدر يتيح التخزين الموزع لمجموعات كبيرة من البيانات عبر مجموعات من أجهزة الكمبيوتر. يتيح إطار عمل نظام الملفات الموزعة Hadoop (HDFS) هذا إدارة كميات كبيرة من البيانات بكفاءة.
قابلية التوسع في Hadoop تجعله مثاليًا للمؤسسات التي تحتاج إلى معالجة مجموعات بيانات كبيرة ضمن ميزانية محدودة. على سبيل المثال، قد تستخدم إحدى شركات الهواتف برنامج Hadoop لمعالجة وتخزين سجلات المكالمات عبر الخوادم الموزعة لتحليل أداء الشبكة بشكل أكثر تكلفة وفاعلية.
يشتهر Apache Spark بسرعته وبساطته، خاصةً عندما يتعلق الأمر بالتحليلات في الوقت الفعلي. وبفضل قدرات المعالجة داخل الذاكرة، فإنه يتفوق في مهام استخلاص البيانات والتحليلات التنبؤية وعلم البيانات. تلجأ إليه المؤسسات بشكل عام للتطبيقات التي تتطلب معالجة سريعة للبيانات، مثل التحليلات البث المباشر.
على سبيل المثال، قد تستخدم منصة التدفق محرك Spark لمعالجة نشاط المستخدم في الوقت الفعلي لتتبع عادات المشاهدين وتقديم توصيات فورية.
تم تصميم قواعد البيانات NoSQL للتعامل مع البيانات غير المنظمة، ما يجعلها خيارًا مرنًا لتطبيقات البيانات الكبيرة. على عكس قواعد البيانات العلائقية، يمكن لحلول NoSQL -مثل قواعد البيانات الوثائقية، وقواعد البيانات ذات القيمة المفتاحية، وقواعد البيانات الرسومية- التوسع أفقيًا. وهذه المرونة تجعلها مهمة لتخزين البيانات التي لا تتناسب بدقة مع الجداول.
على سبيل المثال، قد تستخدم شركة تجارة إلكترونية قاعدة بيانات مستندات NoSQL لإدارة وتخزين أوصاف المنتجات والصور ومراجعات العملاء.
أحدثت البيانات الكبيرة تحولًا في كيفية جمع المؤسسات للرؤى واتخاذ القرارات الاستراتيجية.
وجدت دراسة أجرتها Harvard Business Review أن الشركات القائمة على البيانات أكثر ربحية وابتكارًا من نظيراتها.1 وقد أفادت المؤسسات التي تستفيد من البيانات الكبيرة والذكاء الاصطناعي بشكل فعال أنها تتفوق على نظيراتها في المقاييس الرئيسية، بما في ذلك الكفاءة التشغيلية (81% مقابل 58%) ونمو الإيرادات (77% مقابل 61%) وتجربة العملاء (77% مقابل 45%).
فيما يلي بعض فوائد البيانات الكبيرة وأهم حالات الاستخدام.
بينما توفر البيانات الكبيرة إمكانات هائلة، فإنها تأتي أيضًا بتحديات كبيرة، خاصةً فيما يتعلق بحجمها وسرعتها.
تتضمن بعض أكبر تحديات البيانات الكبيرة ما يلي:
يتفق 72% من الرؤساء التنفيذيين (CEO) ذوي الأداء الأفضل على أن الحصول على ميزة تنافسية يعتمد على امتلاك الذكاء الاصطناعي الأكثر تقدمًا. يتطلب هذا النوع من الذكاء الاصطناعي المتطور، أولًا وقبل كل شيء، كميات كبيرة من البيانات عالية الجودة.
تعتمد أنظمة الذكاء الاصطناعي المتقدمة ونماذج التعلم الآلي، مثل النماذج اللغوية الكبيرة (LLMs)، على عملية تسمى التعلم العميق.
يستخدم التعلم العميق مجموعات بيانات واسعة النطاق وغير مصنفة لتدريب النماذج على أداء المهام المعقدة مثل التعرف على الصور والكلام. توفر البيانات الكبيرة الحجم (كميات البيانات الكبيرة) والتنوع (أنواع البيانات المتنوعة) والدقة (جودة البيانات) اللازمة للتعلم العميق.
باستخدام هذا الأساس، يمكن لخوارزميات التعلم الآلي تحديد الأنماط، وتطوير الرؤى، وتمكين اتخاذ القرارات التنبؤية لدفع الابتكار، وتحسين تجارب العملاء، والحفاظ على الميزة التنافسية.
تؤدي كل الروابط إلى صفحات خارج ibm.com.
1 Big on data: دراسة تظهر لماذا تكون الشركات القائمة على البيانات أكثر ربحية من نظيراتها، دراسة أجرتها Harvard Business Review study لصالح Google Cloud، في 24 مارس 2023.
احصل على رؤى فريدة حول تطور مشهد الحلول في مجال التحليلات وذكاء الأعمال (ABI)، مع تسليط الضوء على النتائج الرئيسية، والافتراضات، والتوصيات لقادة البيانات والتحليلات.
تمكَّن من تبسيط الوصول إلى البيانات وأتمتة إدارة البيانات. اكتشف قوة دمج استراتيجية مستودع بحيرة البيانات في بنية بياناتك، بما في ذلك تحسين التكاليف لأعباء العمل وتوسيع نطاق الذكاء الاصطناعي والتحليلات لديك، باستخدام جميع بياناتك وفي أي مكان.
استكشف دليل قائد البيانات لإنشاء مؤسسة قائمة على البيانات وتعزيز ميزة الأعمال.
تعرَّف على كيفية مساهمة نهج مستودع بحيرة البيانات المفتوحة في تقديم بيانات موثوق بها وتنفيذ مشاريع التحليلات والذكاء الاصطناعي بشكل أسرع.
لكي تزدهر الشركات، يجب عليها استخدام البيانات لتعزيز ولاء العملاء، وأتمتة عمليات الأعمال، والابتكار باستخدام الحلول المستندة إلى الذكاء الاصطناعي.
استفِد من قيمة بيانات المؤسسة مع IBM Consulting لبناء مؤسسة تعتمد على الرؤى لتحقيق ميزة تنافسية في الأعمال.
تعرَّف على Cognos Analytics 12.0، رؤى مدعومة بالذكاء الاصطناعي لتحسين عملية اتخاذ القرارات.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com