مفهوم الزمن :
يبدو الزمن كمفهوم بسيط يسهل فهمه ، إذا نظرنا إليه بالشكل الكلاسيكي الذي مفاده أن البشر مركز الكون و انطلاقا من هذا الاعتقاد ثم نفسر الزمان بتعاقب اﻷيام والفصول إلخ.. . غير أنه مع تقدم الفيزياء الفلكية، ظهر لنا واقع مخالف تماما فهناك ملايير ملايير النجوم (مثل شمسنا) التي تدور حولها كواكب أخرى وهنا بدأنا نوقن أن التفسير القديم سطحي نوعا ما، ولا يمث للواقع بصلة فبدأ الفلاسفة والعلماء بمحاولة فهم معنى "الزمان" ولماذا نستطيع تذكر الماضي دون المستقبل، ثم لماذا نتخيله كسهم يسير في اتجاه واحد (المستقبل) وكان من بين المجيبين على هذا السؤال الفيزيائي الشهير ستيفن هوكينغ، والذي طرح مفهومين للزمن (إلى جانب المفهوم البسيكولوجي له والذي يتوافق مع اﻹدراك البشري للوقت) :
1 - الزمن اﻷنتروبي :  هذا المفهوم من الزمن يتوافق مع القانون الثاني الديناميكا الحرارية، والذي يبين أن الكون ينتقل من حالة النظام نحو حالة من الفوضى. وسوف نحدد بالضبط ما هي الإنتروبيا في بقية المقال.

2 - الزمن الكوني (الكوزمولوجي) : لا يناقش العلماء هذا الإطار من الوقت كثيرا، ولكن يمكن تشبيهه بسهم يتحرك إلى الأمام عندما يكون الكون في حالة تضخمية وإلى الخلف عندما يكون الكون في حالة الانكماش.

انتقال النظام من اﻹنتظام نحو الفوضى (نقول أن قيمة اﻷنتروبي ترتفع dS>0)

- ما هي اﻷنتروبي رياضيا حسب علم اﻹحتمال ؟
يمكن تبسيط مفهوم اﻷنتروبي بالمثال التالي : تخيل شخصين يشاهدان معا فيلم تقييمه متوسط للغاية، وبعد إنهاء الفيلم طلب منهما تقييم الفيلم بالاختيار بين (جيد) أو (سيء)، بحيث يشيران باﻹبهام إلى اﻷسفل إن كان سيئا وإلى اﻷعلى إن كان الفيلم جيدا. المشكلة هنا أن الفيلم متوسط الجودة أي سيجد المتفرجين صعوبة في تقييمه بين اختيارين فقط (جيد - سيء)
لدينا هنا ثلاث حالات (تذكروا أن الصفر يعني تقييم ممتاز)
نعتبر p(i) نسبة حصولنا على i تقييم ممتاز
p(0)=1/4, p(1)=2/4, p(2)=1/4
تعرف اﻷنتروبي S في هذه الحالة كالتالي :
S = -p(0)\, log_{2}\, p(0) -p(1)\, log_{2}\, p(1) -p(2)\, log_{2}\, p(2) = \frac{3}{2}log_{2}(2)

إن كان عدد المصوتين 3 فيمكننا ببساطة أن نمدد المعادلة أعلاه إلى -p(3)ln p(3) ونتستنج النسبة.
على لعموم تساعد اﻷنتروبي في هذه الحالة من تحديد نسبة الحصول على تقييمات ممتازة ﻷي عدد مصوتين كان عن طريق تمديد المعادلة إلى -p(x)ln p(x)

ماذا تعني اﻷنتروبي حسب نظرية المعلومات ؟
كما ذكرنا أعلاه، يمكن تعريف الإنتروبيا لأي احتمال p. وعلى وجه التحديد :

S = \sum_{i}p(i)log_{2}\: p(i)$$

وهي كمية مهمة في ما يسمى نظرية المعلومات. لنفترض أنه خلال الحرب، يصبح من المهم تشفير الرسائل باستخدام رموز بحيث يستحيل على اﻷعداء قراءتها. واحدة من أبسط الطرق للقيام بذلك هو تعيين لكل حرف تسلسل من 0S و 1s وبمثل هذه الطريقة لن يوجد هناك أي مجال للارتباك (ﻷن هناك طريقة فريدة لفك شفرة كل رسالة). إحدى الطرق للقيام بذلك هي:

a - 1
b - 01
c - 001
d - 0001
e - 00001
f - 000001
g - 0000001
h - 00000001
i - 000000001
j - 0000000001
k - 00000000001
l - 000000000001
m - 0000000000001
n - 00000000000001
o - 000000000000001
p - 0000000000000001
q - 00000000000000001
r - 000000000000000001
s - 0000000000000000001
t - 00000000000000000001
u - 000000000000000000001
v - 0000000000000000000001
w - 00000000000000000000001
x - 000000000000000000000001
y - 0000000000000000000000001
z - 00000000000000000000000001

على سبيل المثال كلمة "Shannon" سيكون تشفيرها كالتالي :
0000000000000000001000000011000000000000010000000000000100000000000000100000000000001

لا يمكن أن يكون هناك أي التباس في فك هذه الشيفرة : الشيء الوحيد الذي نحتاج إلى التحقق منه هو عدد الأصفار بين الواحد "1" . ومع ذلك، تبقى الوسيلة أعلاه غير فعالة للغاية لتشفير الرسائل. على سبيل المثال، الحرف s هو أكثر تكرارا في اللغة الإنجليزية من الحرف j. لذلك يجب علينا على الأرجح تعيين رمز أقصر للحرف s لكي تكون الرسائل المشفرة أقصر.لكن حتى لو قمنا بتعيين أقصر رمز إلى أكثر الأحرف تحدثا وتكرارا في اللغة الإنجليزية، تبقى هذه الطريقة غير فعالة جدا لترميز رسائلنا. وهنا نطرح سؤال : هل هناك حل بديل ؟
لنفترض اﻵن أننا نعرف احتمال ظهور كل حرف من الأبجدية باللغة الإنجليزية. نخصص لكل حرف تسلسل من 0s و 1s من طول l (حرف)، بمثل هذه الطريقة يمكننا فك شفرة الرسالة. ما هو متوسط طول الرموز ال 26 المنتجة (27 إذا قمنا بتضمين حرف للمساحات)؟ وبشكل أكثر تحديدا، ما هو أصغر طول شفرة متوقع ممكن؟ مع العلم أننا نحصل على طول الشفرة المتوقع عن طريق حساب طول الشفرة الخاصة بالحرف مضروبا باحتمال ظهور تلك الرسالة باللغة الإنكليزية ثم إضافة كل هذه الكميات معا. ويشار أحيانا إلى الطول المتوقع على أنه المتوسط المرجح للأطوال.
هناك نتيجة رياضية مشهورة تبين أن أصغر طول رمز متوقع يكمن بين S و S + 1. لذلك إذا كنا نفكر في احتمال كما يمثل احتمال اختيار حرف معين، فإن الإنتروبيا هنا تمثل صعوبة ترميز تلك المعلومات بكفاءة في الثنائية (0S و 1 s).
من السهل أن نبين باستخدام حساب التفاضل والتكامل (وطريقة المضاعفات لاغرانج على وجه التحديد)  أن الرسائل n، وتوزيع الاحتمالات ذات أكبر قيمة للانتروبيا تملك توزيعا موحد (بمعنى أن احتمال أي حرف هو 1\n).

مفهوم اﻷنتروبي فيزيائيا و كيف ترتبط بالحياة الواقعية ؟

حسنا، أولا، نحتاج هنا إلى ربط الإنتروبيا بالفيزياء و يجب التنبيه أن اﻷنتروبيا هي المقدار الفيزيائي الوحيد المرتبط بالزمن أساسا. المثال النموذجي اﻷكثر شهرة يأتينا من الديناميكا الحرارية، حيث نعتبر أن لدينا صندوق غاز به حاجز يقسمه إلى نصفين، ويكمن مجمل الغاز في جانب واحد من الصندوق. ثم نقوم بإزالة الحاجز.

نرفق لكل ذرة غاز الرقم 0 إن كانت توجد على بالنصف اﻷيسر من الصندوق و الرقم 1 إن كانت توجد بالنصف اﻷيمن
ونحاول حساب نسبة الذرات من كل فئة وتوزيعها في كل جهة في أي لحظة زمنية
عادة، يتم قياس عدد الجزيئات في كمية معينة من الغاز بوحدة تدعى المول "moles" والتي تمثل مقدارا يتكون من  10^23 جسيم،  وكما يظهر لكم ليس من الممكن أن نحسب هذا اﻹحتمال.  وبغض النظر عن ذلك، لا يزال الفيزيائيون يتسائلون عن الكيفية التي ينبغي أن يتغير بها الكون مع مرور الوقت. والنتيجة، والمعروفة باسم القانون الثاني للديناميكا الحرارية، تنص على أن الانتروبيا في أي نظام مغلق يمكن أن تزيد فقط. النظام المغلق هو الذي لا يمكن أن يتفاعل ديناميكيا مع أي شيء خارجي (على وجه التحديد، المادة والطاقة لا يمكن أن تتدفق من هذا النظام). في الواقع، ذهب الفيزيائيون أبعد من ذلك. وقالوا إن الكون يجب أن يميل إلى أقصى حد له. وهذا يعني أن النظام سيصل لحد موحد. في مثالنا السابق (عن الصندوق المقسم) هذا يعني أنه مع مرور الوقت سيصل ترتيب الذرات بالصندوق لحالة موحدة تتساوى فيها تسلسلات الصفر"0" و الواحد "1"، وهذا يعني أيضا أن الغاز لن يتواجد بجهة واحدة من الصندوق فقط في أي نقطة من النظام. فمثلا لو أخدنا مولا واحدا من الغاز، احتمال أن توجد به أصفار فقط أو أرقام "1" فقط يؤول إلى الصفر، هنا نقول أن اﻷنتروبيا (أو حالة الفوضى بالنظام) وصلت ﻷكبر قيمها.
يمكننا بطبيعة الحال التلاعب بسرعة اﻷنتروبيا في النظام عن طريق تغيير الحرارة فمثلا عند رفع درجة الحرارة بالصندوق، لنجد أن اﻷمر يساهم في رفع قيمة اﻷنتروبي.

- كيف يمكن أن نربط هذا بالزمان ؟
بين ستيفن هوكينغ أن مفهومي الزمن (النفسي و اﻷنتروبي) مرتبطين ببعضهما البعض، فأدمغتنا بدورها تتكون من أزواج من الخلايا العصبية  ويتم توجيه هذه الخلايا العصبية بطرق معينة كي تتشكل الذكريات التي ممرنا بها، مع تقدمنا في السن، وهذا بطبيعة الحال يتطلب طاقة تؤدي لتسخين الجسم(كي يتمكن من خلق هذه الذاكرة)، وهكذا تزداد اﻷنتروبيا الكلية. ومن هنا نستنتج أن نسبة الذكريات بذاكرتنا تزداد فقط عن ازدياد قيمة اﻷنتروبيا، وبالتالي يجب أن يشير السهمان إلى نفس الاتجاه.

ومن هنا نستنتج العلاقة بين اﻷنتروبيا كمفهوم فيزيائي وبين مفهوم الزمن البسيكولوجي (النفسي) في أدمغتنا.

 

المصدر : 1

اترك رد

اكتب تعليق
أدخل اسمك هنا