До 18 септември е общественото обсъждане на проекта за концепция за развитието на изкуствения интелект в България до 2030 г.

Какво пише в документите на други държави по въпроса?

В мотивите към проекта на Концепция за развитието на изкуствения интелект в България до 2030 г., подложена на обществено обсъждане, пише:

„Концепцията предлага цялостна визия за развитието и използването на ИИ в България. Основава се върху стратегическите и програмни документи на Европейската комисия, които разглеждат ИИ като един от основните двигатели на цифровата трансформация в Европа и значим главен фактор за осигуряване на конкурентоспособността на европейската икономика и високо качество на живот.

Представени са основните предпоставки и предизвикателства за развитието на ИИ в България за периода 2020-2030 г. Направен е преглед на съществуващи стратегии и проекти за развитието на България през следващите години. Определени са основните области на въздействие и специфичните мерки: изграждане на надеждна инфраструктура за развитие на ИИ; развитие на изследователски капацитет за върхови научни постижения; създаване на знания и умения за развитие и използване на ИИ; подкрепа за иновации с цел внедряване на ИИ в практиката; повишаване на осведомеността и изграждане на доверие в обществото; създаване на нормативна база за развитие и използване на надежден ИИ в съответствие с международните регулаторни и етични стандарти; създаване на условия за финансиране и устойчиви инвестиции за развитието на ИИ.“

И понеже се интересувам освен от защита на личните данни, и от комуникации, отварям раздела за повишаване на осведомеността:

„Следните мерки ще помогнат за активизиране на диалога с обществото и създаване на доверие:

  • Обособяване на направление на дейност и съответно структурно звено на бъдещия национален Център за върхови постижения по ИИ, насочени към осигуряване на публичност на постиженията на Центъра и очакваните ползи за обществото от тяхното практическо внедряване.
  • Създаване на канал в YouTube с кратки видеозаписи на български език относно внедрени в България приложения на ИИ. Покани към научно-приложните проекти, финансирани с публични средства, да качват материали там. Покани към български учени от чужбина и запис на техните лекции за показване в YouTube канала.
  • Активно използване на различни инициативи на ЕК като Европейската нощ на учените и др. за повишаване на осведомеността на широката общественост и изграждане на позитивно отношение и доверие към резултатите от теоретичните и практическите разработки в областта на ИИ.
  • Целенасочено събиране и оповестяване в средствата за масово осведомяване на примери за иновативни практики, свързани с успешно приложение на интелигентни роботи и други типове системи с ИИ при аварийни ситуации, епидемична обстановка, опасни условия на труд и др.
  • Организиране на специализирани издания на традиционните информационни дни на академичните организации като Дни на отворени врати, Дни на кариерното развитие и др., за участие в които да се канят представители на фирми с постижения в създаването на софтуер за ИИ.
  • Организиране на състезания и хакатони по ИИ за студенти или ученици, с използване на форми с вече утвърдени традиции – например студентски и ученически олимпиади; състезания, организирани от МОН и водещи университети; Ученически институт на БАН; събития на СМБ, САИ, Съюза на учените в България и др.“

Браво. А сега да видим какво правят останалите държави. Те като че ли са на някакви други земни кълбета по темата – ето последни новини от американците – и те имат обществено обсъждане – NIST приемат коментари по техния проект до 15 октомври 2020 г .

Насоките на ICO, за които експерти се подиграваха, че все едно Дракула е писал насоки за кръвни изследвания, защото бяха създадени с участието на индустрията, също подлежат на коментари и е предвидена специална форма за това. Те отговарят на следните въпроси: Какви са последиците за отчетността и управлението на ИИ? Какво трябва да направим, за да гарантираме законосъобразност, справедливост и прозрачност в системите на ИИ? Как трябва да оценим сигурността и минимизирането на данните в AI? Как да гарантираме индивидуалните права в нашите ИИ системи?

На 15 юни тази година OECD съобщи за създаването на Секретариат на Global Partnership on AI (GPAI). Там е най-интересно – ако проследите публикациите се стига до нашата концепция, наричана стратегия, каквато ще стане, когато порасне.

Дано в резултат на общественото обсъждане концепцията стане поне малко сравнима с останалите. Защото в момента е по-близо до художествената самодейност, отколкото до сериозен документ, който да ни представи достойно пред света.

На 1 юни писах, че ОИСР прие Принципи за изкуствен интелект. Вече 50 държави са съпричастни към темата. На сайта на проекта до ден днешен няма информация България да се е присъединила към документа.

 

Можете да споделите: