GPAI‌ها نوعی از مدل‌های هوش مصنوعی هستند که با قدرت رایانش بیش از ۱۰&sup۲;⁵ FLOP  آموزش دیده‌اند. اوپن‌ای‌آی، گوگل، متا، آنتروپیک و میسترال از جمله شرکت‌های واجد شرایط پیروی از این آیین‌نامه هستند. البته این فهرست در حال گسترش است.

پیش‌نویس آیین‌نامه چند حوزه اصلی را برای سازندگان GPAI پوشش می‌دهد که شامل شفافیت، پیروی از قانون کپی‌رایت، مدیریت ریسک و کاهش ریسک فنی و نظارتی است.

این آیین‌نامه ۳۶ صفحه‌ای حوزه‌های مختلفی را دربر می‌گیرد، اما چند نکته در آن برجسته است. مقررات مذکور روی شفافیت در توسعه هوش مصنوعی تاکید دارد و شرکت‌های این حوزه را ملزم به فراهم کردن اطلاعات درباره «خزنده‌های وب» (web crawler) می‌کند که برای آموزش مدل‌های هوش مصنوعی به کار می‌گیرند. خزنده وب یک برنامه رایانه‌ای است که توانایی مرور و ثبت اطلاعات را از وب‌سایت‌ها به صورت خودکار دارد. این امر یکی از نگرانی‌های اصلی خالقان محتوا و صاحبان حقوق کپی‌رایت است. هدف بخش مدیریت ریسک نیز جلوگیری از جرایم سایبری، تبعیض گسترده و از بین رفتن کنترل بر هوش مصنوعی است.

انتظار می‌رود سازندگان هوش مصنوعی «چارچوب ایمنی و امنیت» (SSF) را به کار گیرند تا سیاست‌های مدیریت ریسک خود را تجزیه کنند و آنها را متناسب با ریسک‌های سیستمی‌شان کاهش دهند. همچنین این قوانین حوزه‌های فنی مانند مدل‌های داده محافظ، ارائه کنترل‌های دسترسی ایمن و ارزیابی ایمن تاثیرگذاری آنها را پوشش می‌دهد.

طبق این قانون مانند بقیه مقررات مرتبط با فناوری در اتحادیه اروپا، شرکت‌هایی که مشمول قانون هوش مصنوعی می‌شوند، در صورت نقض قوانین با جریمه‌های سنگین روبه‌رو می‌شوند. این شرکت‌ها ممکن است با جریمه‌ای تا سقف ۳۵ میلیون یورو یا ۷درصد درآمد جهانی سالانه‌شان روبه‌رو شوند. از سهامداران شرکت‌های مرتبط در این حوزه خواسته شده بازخوردهایشان را تا ۲۸ نوامبر ارائه کنند تا به بهبود پیش‌نویس بعدی کمک کنند.