Подписка
МЕНЮ
Подписка

Ближайшие онлайн-мероприятия компании "Гротек"  15 мая. Профилактика пожарных рисков в крупных коммерческих объектах за счёт  использования автоматизированных систем  16 мая. Пожарная безопасность зданий и коммерческой недвижимости  22 мая. Видеоаналитика и автоматизированный видеоконтроль технологических  процессов, производственных регламентов  Регистрируйтесь и участвуйте!

Нейросети и генная инженерия – технологии 2023 года

15/01/2024

Закончился 2023 год – год, который точно войдет в историю, год, который прошел под знаком ChatGPT и искусственного интеллекта, год, который перевернул наше понимание о возможностях компьютера и методах взаимодействия с ним.

В 2023 г. искусственный интеллект (ИИ) вышел за пределы лабораторий и те потрясающие возможности, которые ранее были доступны лишь некоторым организациям, стали доступны каждому. Эти технологии сопоставимы с изобретением Интернета или электричества, качественно изменившими в свое время нашу жизнь. Об этом мы писали весь год, и практически каждый месяц появлялись новые, качественные прорывы в этой области.

Механизм понимания человеческой речи

Интересно, что в основе прорыва в области искусственного интеллекта лежат генеративные нейронные сети, или же, по-другому, LLM (большие языковые модели). Эти модели используют алгоритм GPT (Generative Pretrained Transformer). Модели данного типа обучены понимать и генерировать человекоподобный язык, способны создавать текст различных форматов – короткий и длинный, резюме, переводы и даже поэзию. Основная особенность этих моделей заключается в их способности понимать сложные запросы, идиомы и разговорные выражения и генерировать персонализированные ответы на основе предыдущих взаимодействий с пользователем.

В LLM слова и фразы представлены в виде числовых токенов, что является основной единицей обработки текста. Каждый токен кодируется числовым значением. При генерации текста модель предсказывает следующий токен, основываясь на предыдущих. Например, если пользователь начинает предложение со слова "солнце", модель может предсказать следующие слова – "светит" или "высоко", в зависимости от контекста и от уже обученных данных.

Философский инструмент

Удивительно, но этот железный "статический предсказатель" ставит перед нами сложные философские вопросы: а что есть такое человеческое мышление? не являемся ли мы сами такими же "статическими предсказателями" на биологической платформе?

Ведь мы думаем словами, нашим внутренним монологом, подставляя слова в предложения, наиболее подходящие по смыслу в конкретной ситуации. Не зря говорят, что если человек находится в стрессе, то он не может "связать двух слов", ему не хватает слов, чтобы выразить мысль, – человек буквально зависает, не может закончить предложение, и это останавливает его при формировании мысли и влияет на его дальнейшие действия.

Люди тоже обучаются с помощью слов, с самого своего появления на свет, но формировать более-менее связную логическую речь мы способны лишь по прошествии нескольких лет!

Существует фраза "Мир есть текст", то есть наше мировосприятие возможно лишь только через призму слов, через них мы познаем нашу реальность. По мнения Юваля Ной Харари, известного историка и футуролога, наш вид стал разумным лишь тогда, когда мы начали общаться словами, делиться эмоциями и рассказывать друг другу "истории", то есть примерно 70 тыс. лет назад.
Возможно, дальнейшее развитие искусственного интеллекта и, в частности, LLM создаст то "зеркало", которое позволит нам посмотреть на себя со стороны, лучше понять себя и ответить на вопросы "Кто мы?", "Почему мы разумны?" и "Что есть сознание?".

Генное редактирование

Я думаю, что еще один факт, которым запомнится 2023 год в истории, – это первое официальное разрешение использования технологии CRISPR, полученное на уровне медицинского регулятора страны (MHRA в Великобритании). Да, с ограничениями: только два наследственных заболевания, пациент не моложе 12 лет, рекомендована трансплантация костного мозга, но нет возможности найти подходящего донора.

Напомню, речь о технологии редактирования генов, которая долгое время запрещалась для использования на людях из-за этических разногласий. Китайский ученый, который подпольно отредактировал гены у трех детей на стадии эмбрионов для устойчивости к ВИЧ – а их матери были больны ВИЧ, – попал за это в тюрьму на три года.

Опасность этой технологии для человечества состоит в том, что вначале ее действительно начнут использовать для тяжелобольных, для исправления дефектного генома, но точно на этом не остановятся. Наверняка в какой-то момент мы решим использовать ее на здоровых людях для улучшения определенных свойств, например программировать у зародышей мощные мускулы, цвет глаз, а затем поэкспериментировать, добавив, например, хвостик или крылышки. Потенциально подобные эксперименты могут привести к разделению человеческого вида на несколько несовместимых видов. Ранее этот процесс блокировался на государственном уровне, но мы видим, что начало положено.

Как бы не остался в истории 2023-й годом, когда пошел обратный отсчет нашего вида Homo sapiens.

evika-korzhebin1

 

 

 

Алексей Коржебин
Эксперт редакции журнала "Системы безопасности"

Рынок физической безопасности. Экспертиза. Исследования. Обзоры

Темы:Цифровая трансформацияИскусственный интеллектНейросетиЖурнал "Системы безопасности" №6/2023