القرار والمسؤولية في عصر الخوارزميات الطبية
القرار والمسؤولية في عصر الخوارزميات الطبية
بين حكم الطبيب ومنطق الآلة
د. عميد خالد عبد الحميد
في غرفة عناية مركّزة، ظهر تنبيه رقمي على الشاشة: «احتمال تدهور المريض خلال 12 ساعة: 89 في المائة». لم يكن التنبيه صرخةً، بل كان رقماً هادئاً. لكن الأرقام، حين تقترب من الحياة، لا تكون هادئة أبداً. رفع الطبيب نظره من الشاشة إلى المريض... الأجهزة مستقرة، والمؤشرات مطمئنة، ولكن الخوارزمية تقول شيئاً آخر.
الرقم والقرار والعاقبة
في تلك اللحظة يتغير السؤال. إذ لم يعد: هل الرقم دقيق؟ بل: من يملك القرار... ومن يتحمل العاقبة؟
لطالما كان القرار الطبي فعلاً إنسانياً واضح المركز، فالطبيب يستند إلى علمه وخبرته، ويتحمل تبعات اختياره أمام المريض، وأمام ضميره. غير أن دخول أنظمة الذكاء الاصطناعي إلى غرف الطوارئ وعيادات الأشعة ووحدات العناية المركزة أعاد رسم هذا المركز بهدوء. لم يعد القرار يمر عبر عقل واحد، بل عبر تفاعل بين عقل بشري مسؤول، ونظام خوارزمي يحلل آلاف المتغيرات في ثوانٍ.
* لحظة الخلاف. ولا تكمن المعضلة في دقة الخوارزمية، بل في لحظة الخلاف. ماذا يحدث عندما تختلف قراءة الطبيب عن توصية النظام؟ هل يُقدَّم الحدس السريري على التحليل الإحصائي؟ أم تُمنح أولوية للنموذج الرقمي بحكم اعتماده على بيانات واسعة وتجارب سابقة؟
في مطلع عام 2026 نشرت مجلة «ذا لانسيت للصحة الرقمية» دراسة أوروبية بعنوان: «حوكمة الخلاف السريري بين الإنسان والذكاء الاصطناعي»، قادها البروفسور ماتياس براون من جامعة هايدلبرغ الألمانية. وتابعت الدراسة أكثر من 14 ألف قرار تشخيصي، وركّزت على الحالات التي اختلف فيها تقييم الطبيب مع توصية النظام.
* ضمان السلامة: لم تُظهر النتائج تفوقاً مطلقاً لأي طرف، لكنها كشفت أن أعلى مستويات السلامة تحققت في المؤسسات التي وضعت بروتوكولاً واضحاً لإدارة هذا الخلاف، يُلزم بمراجعة تفسير الخوارزمية، وتوثيق سبب قبول توصيتها أو رفضها.
وحين نُظِّم الحوار بين العقلين، انخفضت الأخطاء. أما حين تُرك الأمر للاجتهاد اللحظي، فقد ارتفع الارتباك. وهنا يتضح أن القضية ليست صراعاً بين إنسان وآلة، بل غياب إطار ينظم العلاقة بينهما.
-----------------------------------------------------------------------------------------------------
* القرار يتخذ اليوم عبر تفاعل بين عقل بشري مسؤول ونظام خوارزمي يحلل آلاف المتغيرات في ثوانٍ*
-----------------------------------------------------------------------------------------------------
مسؤولية الطبيب أم الخوارزمية؟
* مسؤولية طبية. غير أن توزيع السلطة يفتح سؤالاً أكثر حساسية: توزيع المسؤولية. فإذا اتبع الطبيب توصية النظام، وحدث خطأ، من يتحمل النتيجة؟ وإذا تجاهلها ووقع الضرر، هل يُحاسب وحده؟ في منظومة تتداخل فيها البيانات والتصميم والخوارزميات، لا يمكن أن تبقى المسؤولية ضبابية.
منذ أن نُقشت قواعد المسؤولية على مسلة حمورابي، ثم صيغت لاحقاً في قسم أبقراط، ظلّ الطب قائماً على مبدأ واضح: من يقرّر يتحمّل (التبعات). غير أن عصر الخوارزميات أعاد توزيع التأثير داخل غرفة القرار، حتى بات المركز أقل وضوحاً. قد يقول كل طرف في المنظومة: «لم أكن وحدي». لكن المريض لا يرى شبكة البيانات، ولا الخوادم البعيدة، بل يرى الطبيب أمامه، ولذا يحمّله معنى القرار، ونتيجته.
بين العقل والآلة
* قواعد العلاقة مع الآلة. ولهذا فإن التحدي الحقيقي ليس في جعل الخوارزمية أكثر ذكاءً، بل في جعل العلاقة معها أكثر وضوحاً وعدلاً. فرفض الذكاء الاصطناعي ليس حلاً، كما أن التسليم المطلق له ليس فضيلة. وقد أثبتت الأنظمة المصممة جيداً قدرتها على تقليل الأخطاء، خاصة في البيئات المعقدة وسريعة الإيقاع، لكن فعاليتها ترتبط بوضوح حدودها.
وبين الإفراط في الثقة بالآلة، والتفريط في الاستفادة منها، مساحة تحتاج إلى تصميم أخلاقي دقيق. الخوارزمية قد تكون أدق في قراءة الأنماط، لكنها لا تعيش ثقل القرار. والطبيب قد يخطئ، لكنه وحده من يواجه أثر الخطأ أمام المريض.
وكما قال ابن رشد: «العدل هو التوسط بين الإفراط والتفريط». وربما يكون هذا التوسط هو جوهر الطب في عصر الخوارزميات: لا سلطة مطلقة للآلة، ولا يوجد احتكار مطلق للإنسان، بل شراكة منضبطة تُحفظ فيها المسؤولية واضحة، ويظل مركز القرار إنسانياً حتى وهو يستعين بالأرقام.
عند هذا الحد، لا يعود السؤال من يملك القرار، بل كيف نضمن أن يبقى القرار عادلاً.
* المصدر: دراسة «حوكمة الخلاف السريري بين الإنسان والذكاء الاصطناعي»، مجلة «ذا لانسيت للصحة الرقمية» (The Lancet Digital Health)، يناير 2026، الباحث الرئيس: البروفسور ماتياس براون – جامعة هايدلبرغ، ألمانيا.
الشرق الأوسط
بين حكم الطبيب ومنطق الآلة
د. عميد خالد عبد الحميد
في غرفة عناية مركّزة، ظهر تنبيه رقمي على الشاشة: «احتمال تدهور المريض خلال 12 ساعة: 89 في المائة». لم يكن التنبيه صرخةً، بل كان رقماً هادئاً. لكن الأرقام، حين تقترب من الحياة، لا تكون هادئة أبداً. رفع الطبيب نظره من الشاشة إلى المريض... الأجهزة مستقرة، والمؤشرات مطمئنة، ولكن الخوارزمية تقول شيئاً آخر.
الرقم والقرار والعاقبة
في تلك اللحظة يتغير السؤال. إذ لم يعد: هل الرقم دقيق؟ بل: من يملك القرار... ومن يتحمل العاقبة؟
لطالما كان القرار الطبي فعلاً إنسانياً واضح المركز، فالطبيب يستند إلى علمه وخبرته، ويتحمل تبعات اختياره أمام المريض، وأمام ضميره. غير أن دخول أنظمة الذكاء الاصطناعي إلى غرف الطوارئ وعيادات الأشعة ووحدات العناية المركزة أعاد رسم هذا المركز بهدوء. لم يعد القرار يمر عبر عقل واحد، بل عبر تفاعل بين عقل بشري مسؤول، ونظام خوارزمي يحلل آلاف المتغيرات في ثوانٍ.
* لحظة الخلاف. ولا تكمن المعضلة في دقة الخوارزمية، بل في لحظة الخلاف. ماذا يحدث عندما تختلف قراءة الطبيب عن توصية النظام؟ هل يُقدَّم الحدس السريري على التحليل الإحصائي؟ أم تُمنح أولوية للنموذج الرقمي بحكم اعتماده على بيانات واسعة وتجارب سابقة؟
في مطلع عام 2026 نشرت مجلة «ذا لانسيت للصحة الرقمية» دراسة أوروبية بعنوان: «حوكمة الخلاف السريري بين الإنسان والذكاء الاصطناعي»، قادها البروفسور ماتياس براون من جامعة هايدلبرغ الألمانية. وتابعت الدراسة أكثر من 14 ألف قرار تشخيصي، وركّزت على الحالات التي اختلف فيها تقييم الطبيب مع توصية النظام.
* ضمان السلامة: لم تُظهر النتائج تفوقاً مطلقاً لأي طرف، لكنها كشفت أن أعلى مستويات السلامة تحققت في المؤسسات التي وضعت بروتوكولاً واضحاً لإدارة هذا الخلاف، يُلزم بمراجعة تفسير الخوارزمية، وتوثيق سبب قبول توصيتها أو رفضها.
وحين نُظِّم الحوار بين العقلين، انخفضت الأخطاء. أما حين تُرك الأمر للاجتهاد اللحظي، فقد ارتفع الارتباك. وهنا يتضح أن القضية ليست صراعاً بين إنسان وآلة، بل غياب إطار ينظم العلاقة بينهما.
-----------------------------------------------------------------------------------------------------
* القرار يتخذ اليوم عبر تفاعل بين عقل بشري مسؤول ونظام خوارزمي يحلل آلاف المتغيرات في ثوانٍ*
-----------------------------------------------------------------------------------------------------
مسؤولية الطبيب أم الخوارزمية؟
* مسؤولية طبية. غير أن توزيع السلطة يفتح سؤالاً أكثر حساسية: توزيع المسؤولية. فإذا اتبع الطبيب توصية النظام، وحدث خطأ، من يتحمل النتيجة؟ وإذا تجاهلها ووقع الضرر، هل يُحاسب وحده؟ في منظومة تتداخل فيها البيانات والتصميم والخوارزميات، لا يمكن أن تبقى المسؤولية ضبابية.
منذ أن نُقشت قواعد المسؤولية على مسلة حمورابي، ثم صيغت لاحقاً في قسم أبقراط، ظلّ الطب قائماً على مبدأ واضح: من يقرّر يتحمّل (التبعات). غير أن عصر الخوارزميات أعاد توزيع التأثير داخل غرفة القرار، حتى بات المركز أقل وضوحاً. قد يقول كل طرف في المنظومة: «لم أكن وحدي». لكن المريض لا يرى شبكة البيانات، ولا الخوادم البعيدة، بل يرى الطبيب أمامه، ولذا يحمّله معنى القرار، ونتيجته.
بين العقل والآلة
* قواعد العلاقة مع الآلة. ولهذا فإن التحدي الحقيقي ليس في جعل الخوارزمية أكثر ذكاءً، بل في جعل العلاقة معها أكثر وضوحاً وعدلاً. فرفض الذكاء الاصطناعي ليس حلاً، كما أن التسليم المطلق له ليس فضيلة. وقد أثبتت الأنظمة المصممة جيداً قدرتها على تقليل الأخطاء، خاصة في البيئات المعقدة وسريعة الإيقاع، لكن فعاليتها ترتبط بوضوح حدودها.
وبين الإفراط في الثقة بالآلة، والتفريط في الاستفادة منها، مساحة تحتاج إلى تصميم أخلاقي دقيق. الخوارزمية قد تكون أدق في قراءة الأنماط، لكنها لا تعيش ثقل القرار. والطبيب قد يخطئ، لكنه وحده من يواجه أثر الخطأ أمام المريض.
وكما قال ابن رشد: «العدل هو التوسط بين الإفراط والتفريط». وربما يكون هذا التوسط هو جوهر الطب في عصر الخوارزميات: لا سلطة مطلقة للآلة، ولا يوجد احتكار مطلق للإنسان، بل شراكة منضبطة تُحفظ فيها المسؤولية واضحة، ويظل مركز القرار إنسانياً حتى وهو يستعين بالأرقام.
عند هذا الحد، لا يعود السؤال من يملك القرار، بل كيف نضمن أن يبقى القرار عادلاً.
* المصدر: دراسة «حوكمة الخلاف السريري بين الإنسان والذكاء الاصطناعي»، مجلة «ذا لانسيت للصحة الرقمية» (The Lancet Digital Health)، يناير 2026، الباحث الرئيس: البروفسور ماتياس براون – جامعة هايدلبرغ، ألمانيا.
الشرق الأوسط