
لم يعد الذكاء الاصطناعي في الطب مجرد أداة تحليلية تعمل في الخلفية خلف الشاشات، بل أصبح حاضراً في لحظة القرار ذاتها؛ في غرف الطوارئ، وفي أنظمة دعم التشخيص، وفي منصات تقييم المخاطر التي قد ترجّح خياراً علاجياً على آخر. وتقترح الأنظمة الذكية اليوم احتمالات علاجية، وتحسب نسب المضاعفات، وتقدّر فرص النجاة.
هنا يتغير السؤال جذرياً. لم يعد السؤال؛ هل يستخدم الطب الذكاء الاصطناعي؟ بل أصبح؛ كيف يمكن لهذه الأنظمة أن تعمل داخل المنظومة الأخلاقية التي صاغت الممارسة الطبية عبر قرون طويلة؟ كيف يمكن لخوارزمية أن تفهم، أو على الأقل أن تُحاط بمبادئ الإحسان، وعدم الإضرار، واحترام الاستقلالية، وتحقيق العدالة؟
حين تدخل الخوارزمية غرفة القرار، فإنها لا تدخل فراغاً تقنياً، بل تدخل تاريخاً أخلاقياً ممتداً من قوانين حمورابي، إلى قسم أبقراط، إلى تنظيرات ابن سينا، وصولاً إلى مواثيق الأخلاقيات الطبية الحديثة. والسؤال اليوم ليس عن قدرة الآلة على الحساب، بل عن قدرتنا نحن على إدماجها في هذا الإرث الأخلاقي دون أن يتصدّع.

جذور أخلاقيات الطب
> من حمورابي إلى ابن سينا. ظهرت أولى محاولات تنظيم المسؤولية الطبية في شريعة الملك حمورابي في بلاد الرافدين قبل نحو 4 آلاف عام، حيث رُبط الفعل الطبي بنتائجه، وحددت مسؤولية الطبيب القانونية بوضوح غير مسبوق في تاريخ الحضارات. وكان الطب هنا فعلاً يخضع للمساءلة، لا مجرد مهارة تقنية.
وفي الصين القديمة، أكّد كونفوشيوس مركزية الفضيلة والواجب الأخلاقي في علاقة المعالج بالمريض. ثم جاء أبقراط في اليونان ليضع الإطار الأكثر رسوخاً لفكرة الالتزام الأخلاقي للطبيب، عبر مبدأ «عدم الإضرار» والسعي لمنفعة المريض، مؤسساً لفكرة أن الغاية من المعرفة الطبية هي حماية الإنسان، لا استعراض المهارة.
وفي الحضارة الإسلامية، رسّخ ابن سينا في كتابه «القانون في الطب» تصوراً أكثر تكاملاً، حيث لا تنفصل المعرفة الطبية عن الحكمة، ولا المهارة عن الضمير الإنساني. فالطبيب عنده ليس حافظاً للمعلومات فحسب، بل صاحب رؤية أخلاقية توازن بين العقل والرحمة.
> طبّ بين المعرفة والمسؤولية. لم يكن الطب يوماً صراعاً بين الإنسان والأداة، بل علاقة متواصلة بين التقدم العلمي والمسؤولية الأخلاقية. فمع كل تطور تقني - من المشرط الجراحي إلى الأشعة السينية ثم إلى التصوير الجزيئي - ازدادت دقة التشخيص واتسعت إمكانات العلاج، لكن في المقابل تعمّق عبء القرار الطبي وتعقّد. فالأداة لا تعفي الطبيب من المسؤولية، بل تضيف طبقة جديدة من المساءلة؛ كيف تُستخدم؟ ومتى؟ ولصالح من؟
اليوم يختلف الذكاء الاصطناعي عن الأدوات السابقة في أنه لا يساعد اليد فقط، بل يقترب من مجال التفكير السريري ذاته. إنه لا يكتفي بتوفير صورة أو نتيجة مختبرية، بل يقترح تفسيراً، ويرجّح احتمالاً، ويعيد ترتيب الخيارات العلاجية. وهنا يصبح السؤال الأخلاقي أكثر حساسية؛ إذا كانت الأداة تشارك في التحليل، فمن يملك القرار؟ ومن يتحمل مسؤوليته؟

حدود الذكاء الاصطناعي
> قصور في الاعتبارات الأخلاقية. لم يعد النقاش حول أخلاقيات الذكاء الاصطناعي نظرياً أو افتراضياً، بل أصبح مدعوماً بتحليل تجريبي لحوادث واقعية. ففي دراسة نُشرت في فبراير (شباط) 2026 بعنوان «كشف المخاطر الخفية للذكاء الاصطناعي: vتحليل تجريبي للحوادث المرتبطة بالأنظمة الصحية الذكية»، في مجلة الذكاء الاصطناعي في الطب (Artificial Intelligence in Medicine)، أجرى باحثون من معهد أخلاقيات الذكاء الاصطناعي بجامعة أكسفورد في المملكة المتحدة مراجعة منهجية لحوادث ارتبطت باستخدام أنظمة ذكية في بيئات الرعاية الصحية.
وكشفت النتائج أن عدداً كبيراً من الإخفاقات لم يكن ناتجاً عن خلل تقني مباشر في الخوارزمية، بل عن قصور في الاعتبارات الأخلاقية أثناء تصميم النظام، أو عن تطبيقه خارج السياق السريري المناسب. ففي بعض الحالات، جرى استخدام النظام في فئات مرضية لم تُدرَّب الخوارزمية عليها بما يكفي، أو دون مراعاة الفروق الاجتماعية والاقتصادية بين المرضى، ما أدى إلى توصيات غير عادلة أو غير ملائمة.
تلك النتائج تعيدنا إلى جوهر السؤال؛ الذكاء الاصطناعي قد يكون دقيقاً من الناحية الحسابية، لكن من دون إطار أخلاقي واضح يوجّه تصميمه واستخدامه، قد يتحول من أداة مساعدة إلى مصدر خطر غير مقصود.
> الاستقلالية: قرار المريض في عصر الخوارزمية. يقوم مبدأ الاستقلالية على حق المريض في اتخاذ قراره بعد فهم الخيارات العلاجية المتاحة، وموازنة فوائدها ومخاطرها وفق قِيَمه وظروفه الخاصة. وهو مبدأ انتقل بالطب من نموذج «الوصاية» إلى نموذج الشراكة بين الطبيب والمريض.
في هذا السياق، يمكن للذكاء الاصطناعي أن يكون أداة داعمة للاستقلالية، عبر تبسيط المعلومات الطبية المعقدة، وعرض بدائل علاجية متعددة، وتوضيح احتمالات النجاح والمضاعفات بلغة مفهومة. كما يمكنه أن يمكّن المريض من الاطلاع على سيناريوهات مختلفة تساعده على اتخاذ قرار أكثر وعياً.
غير أن التحدي الأخلاقي يظهر حين تتحول توصيات النظام إلى سلطة غير مرئية. فالمريض، وأحياناً الطبيب، قد يميلان إلى الثقة المفرطة بالتوصية الرقمية باعتبارها «محايدة» أو «موضوعية»، حتى إن كانت مبنية على بيانات غير مكتملة أو منحازة. هنا قد يتقلص المجال الحقيقي للاختيار، دون أن يبدو ذلك واضحاً.
الاستقلالية في عصر الخوارزمية لا تعني توفير الخيارات فقط، بل ضمان ألا تتحول الخوارزمية إلى مرجعية صامتة تُعيد تشكيل القرار من وراء الستار.
التقييم في عصر الطب الرقمي
> الإحسان وعدم الإضرار. يشكّل مبدأ الإحسان، أي السعي إلى تحقيق منفعة المريض ومبدأ عدم الإضرار وتجنّب الأذى قدر الإمكان، حجر الزاوية في الأخلاقيات الطبية منذ أبقراط. وفي هذا الإطار، تبدو الأنظمة الذكية حليفاً طبيعياً لهذين المبدأين. فهي قادرة على تحليل كميات هائلة من البيانات السريرية، والتنبؤ بالمضاعفات المحتملة، ورصد الأنماط الدقيقة التي قد تفوت العين البشرية.
غير أن هذه القدرة الحسابية لا تعمل في فراغ. فجودة التوصيات تبقى رهينة جودة البيانات التي دُرّبت عليها الخوارزميات، وتمثيلها العادل لمختلف الفئات السكانية، ودقة السياق السريري الذي تُستخدم فيه. فإذا كانت البيانات ناقصة أو منحازة، فإن التوصية مهما بدت دقيقة قد تحمل في طياتها خطراً غير مرئي.
يضاف إلى ذلك ما يُعرف بـ«الانحياز الآلي»؛ حيث قد يميل الطبيب إلى منح ثقة مفرطة للتوصية الرقمية، فيتردد في مخالفتها رغم وجود شك سريري مشروع. هنا يتحول النظام من أداة داعمة إلى مرجعية صامتة قد تضعف الجرأة المهنية على السؤال أو المراجعة.
إن الإحسان في عصر الذكاء الاصطناعي لا يعني تحسين التنبؤ فقط، وعدم الإضرار لا يتحقق بمجرد انخفاض نسبة الخطأ الإحصائي، بل يتطلبان وعياً نقدياً مستمراً يوازن بين ما تقترحه الخوارزمية وما يقتضيه الضمير السريري.
> العدالة في الطب الرقمي. يحمل الذكاء الاصطناعي وعداً حقيقياً بتوسيع الوصول إلىر الرعاية الصحية، من خلال دعم التشخيص في المناطق محدودة الموارد، وتقليل الفوارق في الوصول إلى الخبرة الطبية. غير أن هذا الوعد الأخلاقي يرتبط بشرط أساسي بعدالة البيانات التي تتعلم منها الأنظمة الذكية.
إن الخوارزميات لا تعمل بمعزل عن الواقع الاجتماعي، بل تعكسه. وإذا كانت بيانات التدريب تمثل فئات سكانية محدودة، أو أنظمة صحية متقدمة دون غيرها، فقد تنتج توصيات أقل دقة لدى مجتمعات أخرى، ما يعيد إنتاج التفاوتات الصحية بدلاً من تقليصها.
لهذا تصبح مراجعة النماذج والخوارزميات، وتقييم مصادر البيانات، وضمان تمثيل التنوع البشري والثقافي، جزءاً لا يتجزأ من المسؤولية الأخلاقية في الطب الرقمي. فالعدالة لم تعد مسألة توزيع الخدمات فقط، بل مسألة تصميم خوارزمي واعٍ يضمن تكافؤ فرص التشخيص والعلاج بين مختلف المرضى والمجتمعات.
> الطب يبقى فعلاً إنسانياً. من شريعة حمورابي التي ربطت الفعل الطبي بالمسؤولية، إلى قسم أبقراط الذي جعل عدم الإضرار مبدأً مهنياً، إلى ابن سينا الذي جمع بين المعرفة والحكمة، ظلّ الطب قائماً على علاقة أخلاقية بين إنسان وإنسان. لم يكن يوماً مجرد تقنية، بل التزاماً ومسؤولية وقراراً يُتخذ في لحظة حساسة قد تغيّر مصير حياة.
اليوم، ومع صعود الخوارزميات القادرة على تحليل ملايين البيانات في ثوانٍ، يتسع أفق الرؤية الطبية، لكن جوهر القرار لا يتغير، لكنها لا تتحمل عبء الاختيار الأخلاقي، ولا تقف أمام المريض لتحمل تبعات القرار.
قد تساعد التقنية الطبيب على أن يرى بوضوح أكبر، لكنها لا تعفيه من أن يختار. والطب، في نهاية المطاف، لا يُقاس بذكاء النظام المستخدم، بل بوعي الإنسان الذي يوجّهه. ومهما تطورت الخوارزميات، يبقى القرار الطبي فعلاً إنسانياً، ومسؤولية لا يمكن تفويضها بالكامل للآلة.
aawsat.com