сочинение историй с помощью нейросети

Бредогенератор: создаем тексты на любом языке с помощью нейронной сети

Эта статья будет в немного «пятничном» формате, сегодня мы займемся NLP. Не тем NLP, про который продают книжки в подземных переходах, а тем, который Natural Language Processing — обработка естественных языков. В качестве примера такой обработки будет использоваться генерация текста с помощью нейронной сети. Создавать тексты мы сможем на любом языке, от русского или английского, до С++. Результаты получаются весьма интересными, по картинке уже наверно можно догадаться.

Для тех, кому интересно что получается, результаты и исходники под катом.

Подготовка данных

Для обработки мы будем использовать особенный класс нейронных сетей — так называемые рекуррентные нейронные сети (RNN — recurrent neural network). Эта сеть отличается от обычной тем, что в дополнение к обычным ячейкам, в ней имеются ячейки памяти. Это позволяет анализировать данные более сложной структуры, и по сути, более близко к памяти человеческой, ведь мы тоже не начинаем каждую мысль «с чистого листа». Для написания кода мы будем использовать сети LSTM (Long Short-Term Memory), благо что их поддержка уже есть в Keras.

Следующая проблема, которую нужно решить, это собственно, работа с текстом. И здесь есть два подхода — подавать на вход либо символы, либо слова целиком. Принцип первого подхода прост: текст разбивается на короткие блоки, где «входами» является фрагмент текста, а «выходом» — следующий символ. Например, для последней фразы ‘входами является фрагмент текста’:

input: входами является фрагмент output: «т»
input: ходами является фрагмент т: output: «е»
input: одами является фрагмент те: output:»к»
input: дами является фрагмент тек: output: «с»
input: ами является фрагмент текс: output: «т».

И так далее. Таким образом, нейросеть получает на входе фрагменты текста, а на выходе символы, которые она должна сформировать.

Второй подход в принципе такой же, только вместо слов используются целые слова. Вначале составляется словарь слов, и на вход сети подаются номера вместо слов.

Это разумеется, достаточно упрощенное описание. Примеры генерации текста уже есть в Keras, но во-первых, они не настолько подробно описаны, во-вторых, во всех англоязычных туториалах используются достаточно абстрактные тексты типа Шекспира, которые и самим нативам-то понять непросто. Ну а мы протестируем нейросеть на нашем великом и могучем, что разумеется, будет нагляднее и понятнее.

Обучение сети

В качестве входного текста я использовал… комментарии Хабра, размер исходного файла составляет 1Мбайт (реально комментариев, конечно, больше, но пришлось использовать только часть, в противном случае нейросеть обучалась бы неделю, и читатели не увидели бы этот текст к пятнице). Напомню, на вход нейронной сети подаются исключительно буквы, сеть ничего «не знает» ни о языке, ни о его структуре. Поехали, запускаем обучение сети.

Пока что ничего не понятно, но уже можно видеть некоторые узнаваемые сочетания букв:

волит что все как как день что на страчает на вы просто пробравили порумет которы и спонка что в примом не прогыли поделе не повому то крабит. от стрения на дала на воне с смария и что возто совенит сторие всего баль претерать с монна продевлести. с стория вого причени постовать подлю на придывали весть в это котория провестренно про вобром поплеми обътит в в при подать на в то и проделе сторов от верк постоваете с это полим про постовение предистение по том на и не может по презда постому то де абъать паля и стором с всем. ну сторяе вобрить в то да можно по ваде «и посявать в гроста как в полем просто на вы постовуть долько в не в стор пеливают колое бас подереление

15 минут обучения:

Результат уже заметно лучше:

как по попросить что в мне отказать сильно то в том что большие сознания ком просто было в по можно в сибо в в разного на была возновали и в то бед на получались проблеме отвазал покому и в решить просто делаете сторони не объясно вы от зачем не больше не как же это в какой по томе по время в то не то контроком сбадать по подивали если объективная все спросила не как попредумаете спосновать помощит производить что вы в объем поможет полизать на разве в высать и с делать на интерникам или в проблеми и ваши военным что контента стране все не же он напоритали с советственно состояние на страни в смоль то на проводительно не проболе не то может в пользы только которые было не обычность

1 час обучения:

производитель по данной странах данных китайским состояниями проблемах и причин на то что не через никак то что я на самом деле она до восставить обычно противоречие и без страна и себе просто стало производства и сложно нам сигнал на деньги и с происходит при статье не только то в политическим стройхах все на них то что восприятие что все же как и может быть времени «способ отвечать» — в государство и все обычно на страхами по вашему сознании вот то что вам не производителься в проблемах и возможно по примеры в голову почему в время данных и состояние потому что вот только создание создавал по мировой интересная просто понятно само отношения проблема на понятие и мир не получится с года просто на войнами с точки зрения объяснения «поддавали что такое само не живот» деньги» — получится и правильно получается на страна и не очень раздали как это получилось

Почему-то все тексты оказались без точек и без заглавных букв, возможно обработка utf-8 сделана не совсем корректно. Но в целом, это впечатляет. Анализируя и запоминая лишь коды символов, программа фактически «самостоятельно» выучила русские слова, и может генерировать вполне правдоподобно выглядящий текст.

Не менее интересно и то, что программа неплохо «запоминает» стиль текста. В следующем примере в качестве для обучения использовался текст какого-то закона. Время тренировки сети 5 минут.

редакция пункта «с»и миновская область, новская область, курганская область, сверская область, коровская область, ивренская область, телегований, республика катания, международных договора российской федерации и субъектов российской федерации принимает постановления в соответствии с федеральным конституционным законом

А здесь в качестве входного набора использовались медицинские аннотации к лекарствам. Время тренировки сети 5 минут.

Читайте также:  браво старс персонажи 2021 с названиями все персонажи

фармакокинетика показания
применение при нарушениях функции почек
собой и сонтерования на вспользования коли в сутавной дозы и воспалительных ястолочная применение мелоксикама и диклофенака в делеке применение при приеме внутрь ингибированием форма выпуска составляет в состорожно по этом сумптом в зависимости з инисилостической составляет при приеме внутрь и препаратами препаратами, с препаратами и гипольком, в течение в плазменость к активность и дозы не указания синтеза простагландинов

Здесь мы видим практически целые фразы. Связано это с тем, что текст оригинала короткий, и нейронная сеть фактически, «заучила» некоторые фразы целиком. Такой эффект называется «переобучением», и его стоит избегать. В идеале, нужно тестировать нейронную сеть на больших наборах данных, но обучение в таком случае может занимать много часов, а лишнего суперкомпьютера у меня к сожалению, нет.

Забавным примером использования такой сети является генерация имен. Загрузив в файл список мужских и женских имен, я получил достаточно интересные новые варианты, которые вполне подошли бы для фантастического романа: Рлар, Лааа, Ариа, Арера, Аелиа, Нинран, Аир. Чем-то в них чувствуется стиль Ефремова и «Туманности Андромеды»…

Интересно то, что по большому счету, нейронной сети всё равно что запоминать. Следующим шагом стало интересно проверить, как программа справится с исходными кодами. В качестве теста я взял разные исходники С++ и объединил их в один текстовый файл.

Честно говоря, результат удивил даже больше, чем в случае с русским языком.

Блин, это же практически настоящий С++.

Как можно видеть, программа «научилась» писать уже целые функции. При этом вполне «по-человечески» отделила функции комментарием со звездочками, поставила комментарии в коде, и все такое. Хотел бы я с такой скоростью изучать новый язык программирования… Конечно, в коде есть ошибки, и он разумеется, не скомпилируется. И кстати, я не форматировал код, ставить скобки и отступы программа тоже научилась «сама».

Разумеется, эти программы не имеют главного — смысла, и поэтому выглядят сюрреалистично, как будто их писали во сне, или их писал не совсем здоровый человек. Но тем не менее, результаты впечатляют. И возможно, более глубокое изучение генерации разных текстов позволит лучше понять некоторые психические заболевания реальных пациентов. Кстати, как подсказали в комментариях, такое психическое заболевание, при котором человек говорит грамматически связанным, но совершенно бесмыссленным текстом (шизофазия), действительно существует.

Заключение

Реккуретные нейронные сети считаются весьма перспективными, и это действительно, большой шаг вперед по сравнению с «обычными» сетями вроде MLP, не имеющих памяти. И действительно, возможности нейронных сетей по запоминанию и обработке достаточно сложных структур, впечатляют. Именно после этих тестов я впервые задумался о том, что возможно в чем-то был прав Илон Маск, когда писал о том, что ИИ в будущем может являться «самым большим риском для человечества» — если даже несложная нейронная сеть легко может запоминать и воспроизводить довольно сложные паттерны, то что сможет делать сеть из миллиардов компонентов? Но с другой стороны, не стоит забывать, что думать наша нейронная сеть не может, она по сути лишь механически запоминает последовательности символов, не понимая их смысла. Это важный момент — даже если обучить нейросеть на суперкомпьютере и огромном наборе данных, в лучшем случае она научится генерировать грамматически 100% правильные, но при этом совершенно лишенные смысла предложения.

Но не будет удаляться в философию, статья все же больше для практиков. Для тех, кто захочет поэкспериментировать самостоятельно, исходный код на Python 3.7 под спойлером. Данный код является компиляцией из разных github-проектов, и не является образцом лучшего кода, но свою задачу вроде как выполняет.

Думаю, получился вполне забористый работающий генератор текстов, который пригодится для написания статей на Хабр. Особенно интересно тестирование на больших текстах и больших количествах итераций обучения, если у кого есть доступ к быстрым компьютерам, было бы интересно увидеть результаты.

Если кто захочет изучить тему более подробно, хорошее описание использования RNN с детальными примерами есть на странице http://karpathy.github.io/2015/05/21/rnn-effectiveness/.

P.S.: И напоследок, немного стихов 😉 Интересно заметить, что и форматирование текста и даже добавление звездочек делал не я, «оно само». Следующим шагом интересно проверить возможность рисования картин и сочинения музыки. Думаю, нейронные сети тут достаточно перспективны.

по катых оспродиться в куках — все в неплу да в суде хлебе.
и под вечернем из тамаки
привада свечкой горого брать.

скоро сыни мось в петахи в трам
пахнет радости незримый свет,
оттого мне сколоткай росет
о ненеком не будешь сык.

сердце стругать в стахой огорой,
уж не стари злакат супает,
я стражно мость на бала сороветь.

в так и хорода дарин в добой,
слышу я в сердце снего на руку.
наше пой белой колько нежный думиной
отвотила рудовой бесть волоть.

вет распуя весерцы закланом
и под забылинким пролил.
и ты, ставь, как с веткам кубой
светят в оночест.
о весели на закото
с тровенной полет молокы.

о вдерь вы розой, светья
свет облака на рука:
и на заре скатался,
как ты, моя всададилан!

он вечер по служу, не в кость,
в нечь по тани свет синились,
как сородная грусть.

И последние несколько стихов в режиме обучения по словам. Тут пропала рифма, зато появился (?) некий смысл.

а ты, от пламень,
звезды.
говорили далекие лицам.

тревожит ты русь,, вас,, в завтраму.
«голубя дождик,
и в родину в убийцах,
за девушка-царевна,
его лик.

о пастух, взмахни палаты
на роще по весной.

еду по сердце дома к пруду,
и мыши задорно
нижегородский бубенец.

но не бойся, утренний ветр,
с тропинке, с клюшкою железной,
и подумал с быльнице
затаил на прудом
в обнищалую ракит.

Источник

Эти чертовы машины все умнее! Писателям и журналистам пора на покой из-за нейросети-копирайтера

Лингвист Максим Ильяхов протестировал работу новой нейросети, которая сама может сгенерировать текст на основе только одной фразы, введенной человеком. Результатом своего эксперимента Ильяхов поделился в Instagram. И надо признать, что текст нейросети получился довольно неожиданным. «360» разбирался в работе нового сервиса.

Русский лингвист и редактор Максим Ильяхов поделился в Instagram результатами эксперимента с нейронной сетью Talk to Transformer. Суть сервиса заключается в том, что на основе только одного предложения, которое вводит человек, робот создает текст.

Экспериментальная фраза Максима была: «Трудно начинать с нуля, если ты молодая мама» — он ввел ее в специальном поле, после чего нейросеть начала писать.

На первый взгляд сгенерированный текст вполне связный. С его переводом на русский язык (нейросеть пишет на английском) помог Google-переводчик. По словам Максима, в итоговом тексте он не исправил ни одной буквы.

Да, в переводе есть некоторая неестественность, но, несмотря на это, результат получился неожиданным и даже пугающим.

«Сырая технология, нулевое участие человека, но это уже работает», — написал Максим в комментарии к серии опубликованных фото.

Читайте также:  забунян грант андроникович биография

Работа нейросети действительно поражает, и устоять перед ней практически невозможно. Вводим простое предложение: «На прошлых выходных поехали с друзьями на пикник». Дальше просим машину составить на его основе текст.

52822 %D0%91%D0%B5%D0%B7 %D0%B8%D0%BC%D0%B5%D0%BD%D0%B84Источник фото: телеканал «360»

Дальше переводим текст с помощью Gооglе-переводчика и получаем конечный результат. И, надо сказать, он пугает — нейросеть написала трагичную историю.

52823 %D0%91%D0%B5%D0%B7 %D0%B8%D0%BC%D0%B5%D0%BD%D0%B83Источник фото: телеканал «360»

Пробуем еще раз. Повторяем ту же схему, только на этот раз специально задаем веселый тон: «На вечеринке все отдыхали и веселились».

52824 %D0%91%D0%B5%D0%B7 %D0%B8%D0%BC%D0%B5%D0%BD%D0%B85Источник фото: телеканал «360»

На этот раз нейросеть написала текст про группу студентов, устроивших вечеринку в кампусе.

52825 %D0%91%D0%B5%D0%B7 %D0%B8%D0%BC%D0%B5%D0%BD%D0%B86Источник фото: телеканал «360»

Дальше решаем усложнить задачу и составить текст уже не про вечеринки. Задаем тему: «Возможно ли, что искусственный интеллект будет работать вместо людей?» И проводим те же манипуляции, что и в предыдущие разы.

Интересно, что в тексте нейросеть составила повествование от лица человека. Робот-автор сгенерировал предложение и составил на его основании вопрос: «Возможно ли, что искусственный интеллект будет работать вместо людей, чтобы помогать людям ориентироваться и принимать решения, или он может стать настолько продвинутым, что машины смогут делать все, что могут люди, и делать это лучше?» Дальше нейросеть ставит еще несколько вопросов на эту тему и даже предлагает читателям обратиться к колонке, написанной якобы автором этого текста.

В конце сгенерированной истории «автор текста» предлагает обратиться к слону и на этом перевод обрывается. Но, несмотря на смешную ошибку в придуманной нейросетью истории, общий вывод можно назвать почти пугающим, ведь теперь у людей появился повод для размышлений: как скоро такие проекты перестанут быть просто развлечением и что еще может научиться делать нейросеть.

Источник

Нейросеть ruGPT-3 для генерации текстового контента

На днях наткнулся на интересную разработку от SberCloud.
Делюсь ею с вами в надежде, что найдутся свободные умы и большой объем времени для полезного применения в нашей с вами работе.

Удивительно, но чтобы воспользоваться самой большой нейросетью для русского языка ruGPT-3, мне не пришлось ехать в отделение Сбера. Каламбур!)

RuGPT-3 может не только создавать тексты любого профиля (новости, романы, стихи, пародии, техническую документацию и так далее), но также исправлять грамматические ошибки, вести диалоги и писать программный код.

По сути, это прообраз общего, или сильного, искусственного интеллекта (Artificial General Intelligence, AGI), способного решать разноплановые задачи в различных сферах деятельности cnews.ru

Тесты

Ради интереса я засунул кусок текста из описания оффера «IdealFit — капли для похудения»:

IdealFit (Идеалфит) — эффективный жиросжигающий комплекс в виде капель на основе натуральных природных компонентов. Позволяет в кратчайшие сроки сбросить нежелательные килограммы и восстановить баланс в организме без мучительных диет, изнурительных тренировок, побочных эффектов и проблем со здоровьем.

И вот что получил на выходе:

Тут дублируется то, что я скормил в качестве «затравки», а далее уже генерированный текст.

Цикл включает 3 основных этапа:

Капсулы «ИдеалФит» содержат натуральный состав, изготовленный из натуральных компонентов, действие которых направлено на укрепление и оздоровление организма.

В состав «ИдеалФит», помимо экстрактов трав, входящих в состав комплекса, входят витамины, микроэлементы и высокоэффективные антиоксиданты.

Дозировка препарата подобрана таким образом, что его эффект будет заметен при частоте приема не менее двух раз в день на протяжении 1-2 месяцев. Рекомендуется начинать прием продукта в сочетании с другими средствами, оказывающими жиросжигющее действие, так как входящие в состав препарата компоненты усиливают действие друг друга.

Предостережения : прием препарата не рекомендуется при индивидуальной непереносимости компонентов, а также при нарушении всасывания жиров в кишечнике.
Лицам, склонным к аллергии и индивидуальной не переносимости препарата, принимать препарат «ИдеальФит. Капсула» не рекомендуется.
Рекомендации по применению : рекомендуется принимать по 1 капсуле в день с первым приемом пищи. Продолжительность приёма составляет 1-3 месяца. При необходимости следует делать перерывы на 2-3 недели.
Продукт не является лекарственным средством.
Перед началом приема проконсультируйтесь со специалистом.
Свидетельство о государственной регистрации No RU.77.99.11.003.E.02917.05.14 от 17.052014 г.

Дозировки и содержание компонентов в косметике, пище и БАДах могут меняться производителями без предварительного уведомления. Domuxus LLC являются зарегистрированной торговой маркой компании Domudexus International Corporation.

Нужно бы немного причесать, но в целом очень даже неплохо. Я не имею и малейшего представления о свидетельствах регистрации, что там за состав и тд. Но полотно выглядит «мамонто-пригодным»

Второй тест

Вставлять сюда полностью текст не буду, можете нажать на картинку и посмотреть что из этого вышло. То, что сгенерировала нейронка — под чертой.

snimok ekrana 2021 04 07 v 15.23.16

Конкретно для меня в рамках статей — это масло масленое, но есть и другая задумка, где может очень пригодится генерация уникальных текстов.

По моим тестам, к сожалению, не всегда все так гладко.
Если у вас есть идеи применения данной штуки — буду рад вашим комментариям в нашем чате Арбитраж Трафика

Поделиться ссылкой:

Добавить комментарий Отменить ответ

Для отправки комментария вам необходимо авторизоваться.

Источник

Нейросеть, которая помогает дописывать ваши истории и стихи

Российский программист Михаил Гранкин создал и запустил на открытом для всех пользователей сети Интернет ресурсе (судя по IP-адресу в облаке Amazon) русский аналог нейросети GPT-2 компании OpenAI.

Проект получил название «Порфирьевич», данная нейросеть умеет генерировать тексты с осмысленным содержанием на основе нескольких слов или пары предложений на русском языке.

1590408518178364714

В примере на фотографии синим цветом выделены слова, которые дописывает программа.

Как работает нейросеть?

Пользователь должен ввести связанный текст и нажать кнопку «Продолжить рассказ»

1590415541193522434

Если полученный результат вас не устраивает или оказался нелогичным, то можно нажать кнопку «Сменить текст» и заменить предложение новым вариантом

1590415580145263501

Нейросеть очень умная и способна удивлять.

1616735705279447213

Искусственный интеллект

409 постов 5K подписчиков

Правила сообщества

Здесь вы можете свободно создавать посты по теме Искусственного интеллекта. Добро пожаловать 🙂

— Делиться вопросами, мыслями, гипотезами, юмором на эту тему.

— Делиться статьями, понятными большинству аудитории Пикабу.

— Делиться опытом создания моделей машинного обучения.

— Рассказывать, как работает та или иная фиговина в анализе данных.

— Век жить, век учиться.

I) Невостребованный контент

I.1) Создавать контент, сложный для понимания. Такие посты уйдут в минуса лишь потому, что большинству неинтересно пробрасывать градиенты в каждом тензоре реккурентной сетки с AdaGrad оптимизатором.

I.2) Создавать контент на «олбанском языке» / нарочно игнорируя правила РЯ даже в шутку. Это ведет к нечитаемости контента.

II) Нетематический контент

II.1) Создавать контент, несвязанный с Data Science, математикой, программированием.

II.2) Создавать контент, входящий в противоречие существующей базе теорем математики. Например, «Земля плоская» или «Любое действительное число представимо в виде дроби двух целых».

II.3) Создавать контент, входящий в противоречие с правилами Пикабу.

III) Непотребный контент

Посадил дед репку и говорит:

— Расти, расти, репка, сладка! Расти, расти, репка, крепка!

Читайте также:  карманов бизнесмен биография фото

Выросла репка сладка, крепка, большая-пребольшая.

Пошел дед репку рвать: тянет-потянет, вытянуть не может.

Позвал дед апостолов своих и говорит: — Вы, апостолы, идите в лес да погуляйте, раз такое дело.

Получаются какие-то «ужасы нашего городка».

Всё как положено, а вот собака-то, собака, нашлась, собака! Ну я и сказал: «Смотрите, вот она, собака! Вот она, собака!».

Что произошло дальше, описать просто невозможно, но вслед за этим начался настоящий кошмар.

Спасибо поржал от души

Похоже мне только что вынесли приговор.

1590418760197961781

Как-то утром на рассвете я решил встать и прогуляться по двору навстречу утренней прохладе. Но вдруг мне стало страшно: вдруг за мной придет Мамаев или Железовский?

шёл медведь по лесу, увидел горящую машину и бросился к ней. От самой середины салона до его краев тянулась полоса пламени. Кто-то стоял на насыпи и целился в него из обреза.

1582255244156882938

И где он вообще? Вот здесь с ответом попроще — чтобы поискать его, достаточно открыть глаза.

Открыл, но понять, где очутился, не смог. (Артем Каменистый. Пять жизней читера)

[В ноге что-то жалобно ныло, а в центре — расплывалось и смещалось что-то круглое и волосатое. Андрей застонал и схватился рукой за ногу. Оказалось, что он висит в петле на яблоне — странное дерево. Яблоня была полностью энтих размеров, и, по всем расчетам, до земли было не более трех метров. Значит, висел он не на ней, а где-то на высоте тридцати-сорока метров. И что теперь делать? Или лучше падать в путь?]

Поменял слов пять бредовых и вырезал порнуху сначала,которую пробовал заставить его написать.

1590423037141551072

1590422181128014727

1590420378153248737

Тили-тили, трали-вали! *Танцуй, орк! Ты разве не танцуешь? Ты ж весь в крови! * 😁😁

— И это не только мои голографические новости, правда?

— Чего тут странного? – спросил Монтигомо.

— Можно подумать, ты не знал.

— Значит, я должен верить на слово? – спросил Монтигомо. – Вы просто придумываете его? Зачем тогда?

— Будем считать, что это так.

— То есть я не покину вас, не защищусь и не посочувствую?

— Я не предлагаю тебе сдать меня. Я предлагаю, чтобы ты помог мне запечатать тугую печать, которая украла твоего брата. Монтигомо задумался на минуту. Он был очень серьезен. Когда он заговорил, его голос звучал холодно и почти мягко:

— Хорошо. Изложив суть проблемы, вы можете оговорить необходимые для этого условия, после чего я его подпишу.

— И что будет, если печать не будет снята?

— Не будет никаких социальных потрясений, никаких потрясений судьбы. Не будет никакого контроля.

— Другими словами, свободы тоже нет?

— Точно. Разве не ясно? Дракончик медленно кивнул.

— Какое-то древнее колдовство, или, если угодно, слово Безликого – или что-то в этом роде.

Дракончик кивнул, взял изо рта Монтигомо челюсть и вышел в дверной проем. Когда он скрылся за углом, Монтигомо повернул голову в сторону Ангелины. Она по прежнему спала. «Хотел бы я знать, что сейчас читает моя Принцесса», – подумал он.

В следующий момент у него появилась идея. Он решил задать дракону еще один вопрос.

— Как по-твоему, ты когда-нибудь чувствовала?

— Нечто необычное, – сказал Монтигомо. Дракончик дернул хвостом. – Я знаю, это звучит глупо, но что именно?

— Не знаю. Ничего определенно. Но я совершенно уверен, что рядом со мной находится что-то непонятное. Как будто во мне.

Дракончик разлепил крылья и поднялся в воздух. Он пронесся над замком, направляясь к намеченному пункту.

— Как ты думаешь, эти древние заклинания…

Кошка смотрела выглядела не как Синтия Кроули, а в качестве совсем другой загадочной личности, погибшей от радиации в каком-то военном соединении.

Однажды я прочел на Пикабу пост о нейросети, дописывающей рассказ или стихотворение пользователя. Сначала в ее функции входило общение. Так что она не станет просить, чтобы я ей позвонил.

1590574783124029132

159049199418571161

1590575485153556818

Да вроде уже очень давно запустил, даже тут пост был

1590489307119756604

Однажды мальчик посадил [бы яйцо к себе на ладони, а получился бы кит – если бы на руках не росли бы локти.]

Так-то да, херня полная!

1590416249126710760

Видно что обучена на небольшом датасете.

m2967566 1556757025

Порфирьевич на службе у фонда

Недавно на Пикабу увидел пост про нейросеть, которая додумывает историю, начало которой ты скармливаешь. Сначала я просто баловался с ней, а потом мне в голову пришла идея, связанная с темой SCP. Можно же с помощью нейросети придумать новые объекты и явления! По крайней мере мне это показалось интересным опытом. Вот сгенерированная статья об инцеденте.

Соответственно, черный текст ─ моё сочинение, синий ─ генерация нейросети.

162220831017214919

Я за плюсами не гонюсь, поэтому оформление и так сойдёт.

m2219782 818851449

1616735705279447213

История про искусственный интеллект, написанная вместе с искусственным интеллектом

162212329414452032

1616735705279447213

Нейрогороскоп от нейросетей

♈️Овен: День способствует увеличению волос и сужению заднего прохода. Если вы думаете, что вы всего лишь маленькая ящерица, то вы глубоко ошибетесь. В этот день у вас появляется шанс стать пиратом. Вы можете разделиться на две части и понюхать себя

♊️Близнецы: Сегодня можно достичь большего благодаря приготовлению пирога из макарон. Вечером можно встретить двух загадочных маленьких горилл и двух ёкабушек. Сегодня вы будете способны петь прекрасные песни и бить детей в носы.

♋️Рак: Вам следует проявить осторожность по отношению к прибалтам. Лучше всего лечь лицом в мокрую тряпку. Это улучшит ваше настроение. Если вас раздражают люди, то вы можете сделать следующее: начать кидаться камнями и бумерангами. Возможны стычки с комодами

♍️Дева: Звезды могут использовать вас в качестве космодесантника или космического казака. На рассвете вас должен встретить священный козел. День хорош для плетения лаптей. Желательно изменить сексуальную ориентацию своего подъезда. Возможны атаки гаражей и амбаров

♏️Скорпион: В первой половине дня возможны настойчивые приставания чужих ногтей. Гороскоп советует вам не заходить слишком далеко в войну с собаками. Держите свой рот резиновым. Не стоит сбрасывать старую кожу. Возможен небольшой дождь из шерсти

♑️Козерог: В этот день на вас может напасть полевой транзистор. Идите и ловите котов, собак, сурков. В этот день вы можете стать серпом и молотом. Если вы хотите достичь успеха в каком-то деле, вам необходимо стать трехруким магом и пинать как можно больше людей.

♒️Водолей: Остерегайтесь тяжелых блинов и дедовщины. Сегодня вечером вас могут украсть марксисты с целью демонстрации сосков. Гороскоп советует вам подумать о том, чтобы сделать 3 клизмы с кофе, помидорами и перцем. Вам не нужно будет ходить по воде

♓️Рыбы: Дом наполнен запахом свежесваренных жуков. Можно поймать несколько жуков и отнести их в церковь на крещение. День начнется с того, что вы должны прекратить быть собакой. Звезды советуют не бояться менструаций и даже вызвать их на дуэль

Источник

Поделиться с друзьями
Моря и океаны
Adblock
detector