Вълнуващ напредък на изкуствения интелект

Университетът в Цингхау привлича таланти от цял свят за интердисциплинарни проучвания в областта на ИИ

Развитието на изкуствения интелект (ИИ) демонстрира вълнуващ напредък. Той вече се използва в автомобилите със самостоятелно безпилотно управление, в автоматизираните хирургически асистенти, в управлението на хедж фондове и в контрола на електрическата мрежа, но как може да се гарантира, че е надежден? Престижният китайски университет Цингхуа обяви, че ще засили фундаменталните изследвания на ИИ от трето поколение с надеждата да изгради доверие и да предотврати злоупотребите и злонамереното поведение на моделите ИИ, съобщи агенция Синхуа. Академик Джан Бо, директор на Института за изкуствен интелект в Цингхуа, обяви план за откриването на Център за фундаментални теории към Института за изкуствен интелект. Изследователите в университета в Цингхау говорят за бъдещето на ИИ от 2014 г. и очакват тази технология да навлезе в третия етап от своето развитие през следващите години, каза той. Първото поколение ИИ се ръководеше от знанието, което самите изследователи притежаваха и те се опитаха да предоставят модела на ИИ с ясни логически правила. Тези системи са способни да решават добре дефинирани проблеми, но не могат да се обучават. Второто поколение ИИ започна да се учи. Машините учат чрез трениране на система на набор от данни и след това тестват на друг комплект. Системата в крайна сметка става по-прецизна и ефективна. Джан Бо каза, че слабостта на второто поколение всъщност се крие в неговата обяснимост и стабилност. Устойчивостта на ИИ се отнася до приемливо високата производителност дори в най-лошия случай. Въпреки че ИИ вече е надминал хората в определени области, като разпознаване на образи, никой не разбира защо тези системи се справят толкова добре. Машинното обучение и дълбокото обучение, които са най-често срещаните клонове на изкуствения интелект от последните години, страдат от така наречената “черна кутия ИИ“. На хората е трудно да тълкуват решенията, основани на ИИ, и не могат да предскажат кога моделът на ИИ ще се провали и как ще се провали. Междувременно дори точните модели на ИИ могат да бъдат уязвими на “състезателни атаки“, при които се въвеждат фини различия за въвеждане на данни за манипулиране на “аргументирането“ на ИИ. Например, една система за изкуствен интелект може да сгреши ленивците за състезателни коли, ако се направят някои незабележими промени в снимка на леност. Затова изследователите трябва да подобрят и проверят устойчивостта на моделите на ИИ, като не оставят място за състезателни примери или дори атаки за манипулиране на резултатите. Ако технологии за изкуствен интелект се внедрят в чувствителни към сигурността или критични за безопасността сценарии, следващото поколение трябва да бъде разбираемо и по-надеждно, обяснява академик Джан Бо. Директорът на новия център Жу Джун обяви, че предстоят интердисциплинарни проучвания , за които ще бъдат привлечени таланти от цял свят, като им се осигури спокойна академична среда за работа.