сочинение историй при помощи нейросети

Нейросеть «Порфирьевич» дописывает тексты и стихи на русском языке

do60btobhud6doovkvjb l0zf3u

«Порфирьевич» продолжил высказывание Линуса Торвальдса.

Российский программист Михаил Гранкин создал и запустил на открытом для всех пользователей сети Интернет ресурсе (судя по IP-адресу в облаке Amazon) русский аналог нейросети GPT-2 компании OpenAI. Проект получил название «Порфирьевич», данная нейросеть умеет генерировать тексты с осмысленным содержанием на основе нескольких слов или пары предложений на русском языке.

Данный проект размещен разработчиком на веб-сервисе GitHub.

Принцип работы нейросети «Порфирьевич»: пользователю необходимо ввести связный текст на русском языке и нажать «Варианты». Если результат нелогичен или чем-то не устраивает, то можно нажать на кнопку «Варианты» еще раз и посмотреть новый вариант. Также в расширенных настройках нейросети «Порфирьевич» (нажать на колесико слева от кнопки «Варианты») можно изменять количество автодополняемых слов (от одного слова до шестидесяти слов), включать автодополнение и изменять его задержку.

Вот, например, как нейросеть «Порфирьевич» может продолжить историю, когда пользователь задает в качестве начальных условий всего два слова:

wccdp2i7wvhrqhsyacwq hvj12c

Если задано всего одно слово, даже буква («Я»), то возможен такой результат:

yeml h zahbzqzv2hcoreezjpl4

«Крупные IT-компании вкладывают огромные деньги в AI. Результаты исследований публикуются открыто, почти всегда вместе с кодом. То есть результат многомиллиардных инвестиций раздают бесплатно на GitHub каждый день. И компании еще соревнуются в том, кто больше раздаст этого добра. Количество публикаций и качество результатов растут невероятными темпами. В результате образуется разрыв — индустрия не успевает применить на практике всё, что публикуют исследователи. Делать исследования, создавать новую архитектуру нейронных сетей сложно, а пользоваться готовыми нейросетями – очень просто. Отсюда получается рецепт успеха: взять с полочки результат многомиллиардных инвестиций и применить его к своей задаче,» — рассказал Михаил Гранкин, разработчик нейросети «Порфирьевич», изданию «TJournal».

Оказывается, что изначально Михаил Гранкин хотел создать нейросеть, которая бы генерировала стихи. Но для этого ему сначала нужно было обучить сеть класса NLG (natural language generation) русскому языку. Однако, разработчик выбрал нейросеть GPT-2, поскольку это «лучшая нейросеть в своем классе». Михаил Гранкин самостоятельно обучал свою нейросеть на работах Достоевского, Толстого, Пушкина, Булгакова, Гоголя и Пелевина. Также само название нейросети «Порфирьевич» было выбрано в честь полицейского-литературного робота (ИИ) по имени Порфирий Петрович из романа «iPhuck X» Виктора Пелевина.

А вот что написано в разделе «О проекте» на веб-сайте нейросети «Порфирьевич»:

Проект разработан вполне сознательно. Разработчикам хотелось выглядеть успешными. Но что сделано, то сделано.Теперь вы можете пользоваться трудами авторов совершенно свободно, без потерь. И не надо с сожалением перечитывать то, что написано под прикрытием редактирования.

Мы не несем ни какой ответственности, но у нас нет средств получить ее! И на это есть причина!

Обязательно найдите нас. Это ваш единственный шанс. Иначе все пропало. Здесь нет нужных людей, нет документов.

Проверим работу нейросети «Порфирьевич». Ниже приведены несколько примеров, как этот сервис смог продолжить знаменитые цитаты о программировании.

«Ходить по воде и разрабатывать программы, следуя спецификации, очень просто… если они заморожены,» — Эдвард В. Берард

image loader

«Обучение программированию не может научить быть экспертом, также как и изучение кистей и красок не может превратить кого-либо в художника,» — Эрик С. Реймонд.

image loader

«Учитывая текущее плачевное состояние наших программ, можно сказать, что программирование определенно все ещё черная магия и, пока, мы не можем называть его технической дисциплиной,» — Билл Клинтон.

image loader

«Вы не можете создавать хорошие программы без хорошей команды, но большинство софтверных команд ведут себя как проблемная семья,» — Джим Маккарти

image loader

«Программирование — это как бить себя по лицу, рано или поздно ваш нос будет кровоточить,» — Кайл Вудбери.

image loader

«Сначала учите науку программирования и всю теорию. Далее выработаете свой программистский стиль. Затем забудьте все и просто программируйте,» — Джордж Карретт.

image loader

«Многие из вас знакомы с достоинствами программиста. Их всего три, и разумеется это: лень, нетерпеливость и гордыня,» — Ларри Уолл.

image loader

«Измерять продуктивность программирования подсчетом строк кода — это так же, как оценивать постройку самолета по его весу,» — Билл Гейтс.

image loader

Также нейросеть «Порфирьевич» поздравила пользователей Хабра с новым годом:

Источник

Бредогенератор: создаем тексты на любом языке с помощью нейронной сети

Эта статья будет в немного «пятничном» формате, сегодня мы займемся NLP. Не тем NLP, про который продают книжки в подземных переходах, а тем, который Natural Language Processing — обработка естественных языков. В качестве примера такой обработки будет использоваться генерация текста с помощью нейронной сети. Создавать тексты мы сможем на любом языке, от русского или английского, до С++. Результаты получаются весьма интересными, по картинке уже наверно можно догадаться.

Для тех, кому интересно что получается, результаты и исходники под катом.

Подготовка данных

Для обработки мы будем использовать особенный класс нейронных сетей — так называемые рекуррентные нейронные сети (RNN — recurrent neural network). Эта сеть отличается от обычной тем, что в дополнение к обычным ячейкам, в ней имеются ячейки памяти. Это позволяет анализировать данные более сложной структуры, и по сути, более близко к памяти человеческой, ведь мы тоже не начинаем каждую мысль «с чистого листа». Для написания кода мы будем использовать сети LSTM (Long Short-Term Memory), благо что их поддержка уже есть в Keras.

Следующая проблема, которую нужно решить, это собственно, работа с текстом. И здесь есть два подхода — подавать на вход либо символы, либо слова целиком. Принцип первого подхода прост: текст разбивается на короткие блоки, где «входами» является фрагмент текста, а «выходом» — следующий символ. Например, для последней фразы ‘входами является фрагмент текста’:

input: входами является фрагмент output: «т»
input: ходами является фрагмент т: output: «е»
input: одами является фрагмент те: output:»к»
input: дами является фрагмент тек: output: «с»
input: ами является фрагмент текс: output: «т».

И так далее. Таким образом, нейросеть получает на входе фрагменты текста, а на выходе символы, которые она должна сформировать.

Читайте также:  му юйчунь сколько ему биография лет

Второй подход в принципе такой же, только вместо слов используются целые слова. Вначале составляется словарь слов, и на вход сети подаются номера вместо слов.

Это разумеется, достаточно упрощенное описание. Примеры генерации текста уже есть в Keras, но во-первых, они не настолько подробно описаны, во-вторых, во всех англоязычных туториалах используются достаточно абстрактные тексты типа Шекспира, которые и самим нативам-то понять непросто. Ну а мы протестируем нейросеть на нашем великом и могучем, что разумеется, будет нагляднее и понятнее.

Обучение сети

В качестве входного текста я использовал… комментарии Хабра, размер исходного файла составляет 1Мбайт (реально комментариев, конечно, больше, но пришлось использовать только часть, в противном случае нейросеть обучалась бы неделю, и читатели не увидели бы этот текст к пятнице). Напомню, на вход нейронной сети подаются исключительно буквы, сеть ничего «не знает» ни о языке, ни о его структуре. Поехали, запускаем обучение сети.

Пока что ничего не понятно, но уже можно видеть некоторые узнаваемые сочетания букв:

волит что все как как день что на страчает на вы просто пробравили порумет которы и спонка что в примом не прогыли поделе не повому то крабит. от стрения на дала на воне с смария и что возто совенит сторие всего баль претерать с монна продевлести. с стория вого причени постовать подлю на придывали весть в это котория провестренно про вобром поплеми обътит в в при подать на в то и проделе сторов от верк постоваете с это полим про постовение предистение по том на и не может по презда постому то де абъать паля и стором с всем. ну сторяе вобрить в то да можно по ваде «и посявать в гроста как в полем просто на вы постовуть долько в не в стор пеливают колое бас подереление

15 минут обучения:

Результат уже заметно лучше:

как по попросить что в мне отказать сильно то в том что большие сознания ком просто было в по можно в сибо в в разного на была возновали и в то бед на получались проблеме отвазал покому и в решить просто делаете сторони не объясно вы от зачем не больше не как же это в какой по томе по время в то не то контроком сбадать по подивали если объективная все спросила не как попредумаете спосновать помощит производить что вы в объем поможет полизать на разве в высать и с делать на интерникам или в проблеми и ваши военным что контента стране все не же он напоритали с советственно состояние на страни в смоль то на проводительно не проболе не то может в пользы только которые было не обычность

1 час обучения:

производитель по данной странах данных китайским состояниями проблемах и причин на то что не через никак то что я на самом деле она до восставить обычно противоречие и без страна и себе просто стало производства и сложно нам сигнал на деньги и с происходит при статье не только то в политическим стройхах все на них то что восприятие что все же как и может быть времени «способ отвечать» — в государство и все обычно на страхами по вашему сознании вот то что вам не производителься в проблемах и возможно по примеры в голову почему в время данных и состояние потому что вот только создание создавал по мировой интересная просто понятно само отношения проблема на понятие и мир не получится с года просто на войнами с точки зрения объяснения «поддавали что такое само не живот» деньги» — получится и правильно получается на страна и не очень раздали как это получилось

Почему-то все тексты оказались без точек и без заглавных букв, возможно обработка utf-8 сделана не совсем корректно. Но в целом, это впечатляет. Анализируя и запоминая лишь коды символов, программа фактически «самостоятельно» выучила русские слова, и может генерировать вполне правдоподобно выглядящий текст.

Не менее интересно и то, что программа неплохо «запоминает» стиль текста. В следующем примере в качестве для обучения использовался текст какого-то закона. Время тренировки сети 5 минут.

редакция пункта «с»и миновская область, новская область, курганская область, сверская область, коровская область, ивренская область, телегований, республика катания, международных договора российской федерации и субъектов российской федерации принимает постановления в соответствии с федеральным конституционным законом

А здесь в качестве входного набора использовались медицинские аннотации к лекарствам. Время тренировки сети 5 минут.

фармакокинетика показания
применение при нарушениях функции почек
собой и сонтерования на вспользования коли в сутавной дозы и воспалительных ястолочная применение мелоксикама и диклофенака в делеке применение при приеме внутрь ингибированием форма выпуска составляет в состорожно по этом сумптом в зависимости з инисилостической составляет при приеме внутрь и препаратами препаратами, с препаратами и гипольком, в течение в плазменость к активность и дозы не указания синтеза простагландинов

Здесь мы видим практически целые фразы. Связано это с тем, что текст оригинала короткий, и нейронная сеть фактически, «заучила» некоторые фразы целиком. Такой эффект называется «переобучением», и его стоит избегать. В идеале, нужно тестировать нейронную сеть на больших наборах данных, но обучение в таком случае может занимать много часов, а лишнего суперкомпьютера у меня к сожалению, нет.

Забавным примером использования такой сети является генерация имен. Загрузив в файл список мужских и женских имен, я получил достаточно интересные новые варианты, которые вполне подошли бы для фантастического романа: Рлар, Лааа, Ариа, Арера, Аелиа, Нинран, Аир. Чем-то в них чувствуется стиль Ефремова и «Туманности Андромеды»…

Интересно то, что по большому счету, нейронной сети всё равно что запоминать. Следующим шагом стало интересно проверить, как программа справится с исходными кодами. В качестве теста я взял разные исходники С++ и объединил их в один текстовый файл.

Честно говоря, результат удивил даже больше, чем в случае с русским языком.

Блин, это же практически настоящий С++.

Как можно видеть, программа «научилась» писать уже целые функции. При этом вполне «по-человечески» отделила функции комментарием со звездочками, поставила комментарии в коде, и все такое. Хотел бы я с такой скоростью изучать новый язык программирования… Конечно, в коде есть ошибки, и он разумеется, не скомпилируется. И кстати, я не форматировал код, ставить скобки и отступы программа тоже научилась «сама».

Читайте также:  самая страшная инфляция в истории

Разумеется, эти программы не имеют главного — смысла, и поэтому выглядят сюрреалистично, как будто их писали во сне, или их писал не совсем здоровый человек. Но тем не менее, результаты впечатляют. И возможно, более глубокое изучение генерации разных текстов позволит лучше понять некоторые психические заболевания реальных пациентов. Кстати, как подсказали в комментариях, такое психическое заболевание, при котором человек говорит грамматически связанным, но совершенно бесмыссленным текстом (шизофазия), действительно существует.

Заключение

Реккуретные нейронные сети считаются весьма перспективными, и это действительно, большой шаг вперед по сравнению с «обычными» сетями вроде MLP, не имеющих памяти. И действительно, возможности нейронных сетей по запоминанию и обработке достаточно сложных структур, впечатляют. Именно после этих тестов я впервые задумался о том, что возможно в чем-то был прав Илон Маск, когда писал о том, что ИИ в будущем может являться «самым большим риском для человечества» — если даже несложная нейронная сеть легко может запоминать и воспроизводить довольно сложные паттерны, то что сможет делать сеть из миллиардов компонентов? Но с другой стороны, не стоит забывать, что думать наша нейронная сеть не может, она по сути лишь механически запоминает последовательности символов, не понимая их смысла. Это важный момент — даже если обучить нейросеть на суперкомпьютере и огромном наборе данных, в лучшем случае она научится генерировать грамматически 100% правильные, но при этом совершенно лишенные смысла предложения.

Но не будет удаляться в философию, статья все же больше для практиков. Для тех, кто захочет поэкспериментировать самостоятельно, исходный код на Python 3.7 под спойлером. Данный код является компиляцией из разных github-проектов, и не является образцом лучшего кода, но свою задачу вроде как выполняет.

Думаю, получился вполне забористый работающий генератор текстов, который пригодится для написания статей на Хабр. Особенно интересно тестирование на больших текстах и больших количествах итераций обучения, если у кого есть доступ к быстрым компьютерам, было бы интересно увидеть результаты.

Если кто захочет изучить тему более подробно, хорошее описание использования RNN с детальными примерами есть на странице http://karpathy.github.io/2015/05/21/rnn-effectiveness/.

P.S.: И напоследок, немного стихов 😉 Интересно заметить, что и форматирование текста и даже добавление звездочек делал не я, «оно само». Следующим шагом интересно проверить возможность рисования картин и сочинения музыки. Думаю, нейронные сети тут достаточно перспективны.

по катых оспродиться в куках — все в неплу да в суде хлебе.
и под вечернем из тамаки
привада свечкой горого брать.

скоро сыни мось в петахи в трам
пахнет радости незримый свет,
оттого мне сколоткай росет
о ненеком не будешь сык.

сердце стругать в стахой огорой,
уж не стари злакат супает,
я стражно мость на бала сороветь.

в так и хорода дарин в добой,
слышу я в сердце снего на руку.
наше пой белой колько нежный думиной
отвотила рудовой бесть волоть.

вет распуя весерцы закланом
и под забылинким пролил.
и ты, ставь, как с веткам кубой
светят в оночест.
о весели на закото
с тровенной полет молокы.

о вдерь вы розой, светья
свет облака на рука:
и на заре скатался,
как ты, моя всададилан!

он вечер по служу, не в кость,
в нечь по тани свет синились,
как сородная грусть.

И последние несколько стихов в режиме обучения по словам. Тут пропала рифма, зато появился (?) некий смысл.

а ты, от пламень,
звезды.
говорили далекие лицам.

тревожит ты русь,, вас,, в завтраму.
«голубя дождик,
и в родину в убийцах,
за девушка-царевна,
его лик.

о пастух, взмахни палаты
на роще по весной.

еду по сердце дома к пруду,
и мыши задорно
нижегородский бубенец.

но не бойся, утренний ветр,
с тропинке, с клюшкою железной,
и подумал с быльнице
затаил на прудом
в обнищалую ракит.

Источник

Нейросеть, которая помогает дописывать ваши истории и стихи

Российский программист Михаил Гранкин создал и запустил на открытом для всех пользователей сети Интернет ресурсе (судя по IP-адресу в облаке Amazon) русский аналог нейросети GPT-2 компании OpenAI.

Проект получил название «Порфирьевич», данная нейросеть умеет генерировать тексты с осмысленным содержанием на основе нескольких слов или пары предложений на русском языке.

1590408518178364714

В примере на фотографии синим цветом выделены слова, которые дописывает программа.

Как работает нейросеть?

Пользователь должен ввести связанный текст и нажать кнопку «Продолжить рассказ»

1590415541193522434

Если полученный результат вас не устраивает или оказался нелогичным, то можно нажать кнопку «Сменить текст» и заменить предложение новым вариантом

1590415580145263501

Нейросеть очень умная и способна удивлять.

1616735705279447213

Искусственный интеллект

409 постов 5K подписчиков

Правила сообщества

Здесь вы можете свободно создавать посты по теме Искусственного интеллекта. Добро пожаловать 🙂

— Делиться вопросами, мыслями, гипотезами, юмором на эту тему.

— Делиться статьями, понятными большинству аудитории Пикабу.

— Делиться опытом создания моделей машинного обучения.

— Рассказывать, как работает та или иная фиговина в анализе данных.

— Век жить, век учиться.

I) Невостребованный контент

I.1) Создавать контент, сложный для понимания. Такие посты уйдут в минуса лишь потому, что большинству неинтересно пробрасывать градиенты в каждом тензоре реккурентной сетки с AdaGrad оптимизатором.

I.2) Создавать контент на «олбанском языке» / нарочно игнорируя правила РЯ даже в шутку. Это ведет к нечитаемости контента.

II) Нетематический контент

II.1) Создавать контент, несвязанный с Data Science, математикой, программированием.

II.2) Создавать контент, входящий в противоречие существующей базе теорем математики. Например, «Земля плоская» или «Любое действительное число представимо в виде дроби двух целых».

II.3) Создавать контент, входящий в противоречие с правилами Пикабу.

III) Непотребный контент

Посадил дед репку и говорит:

— Расти, расти, репка, сладка! Расти, расти, репка, крепка!

Выросла репка сладка, крепка, большая-пребольшая.

Пошел дед репку рвать: тянет-потянет, вытянуть не может.

Позвал дед апостолов своих и говорит: — Вы, апостолы, идите в лес да погуляйте, раз такое дело.

Получаются какие-то «ужасы нашего городка».

Всё как положено, а вот собака-то, собака, нашлась, собака! Ну я и сказал: «Смотрите, вот она, собака! Вот она, собака!».

Что произошло дальше, описать просто невозможно, но вслед за этим начался настоящий кошмар.

Спасибо поржал от души

Похоже мне только что вынесли приговор.

Читайте также:  wow понизить уровень персонажа

1590418760197961781

Как-то утром на рассвете я решил встать и прогуляться по двору навстречу утренней прохладе. Но вдруг мне стало страшно: вдруг за мной придет Мамаев или Железовский?

шёл медведь по лесу, увидел горящую машину и бросился к ней. От самой середины салона до его краев тянулась полоса пламени. Кто-то стоял на насыпи и целился в него из обреза.

1582255244156882938

И где он вообще? Вот здесь с ответом попроще — чтобы поискать его, достаточно открыть глаза.

Открыл, но понять, где очутился, не смог. (Артем Каменистый. Пять жизней читера)

[В ноге что-то жалобно ныло, а в центре — расплывалось и смещалось что-то круглое и волосатое. Андрей застонал и схватился рукой за ногу. Оказалось, что он висит в петле на яблоне — странное дерево. Яблоня была полностью энтих размеров, и, по всем расчетам, до земли было не более трех метров. Значит, висел он не на ней, а где-то на высоте тридцати-сорока метров. И что теперь делать? Или лучше падать в путь?]

Поменял слов пять бредовых и вырезал порнуху сначала,которую пробовал заставить его написать.

1590423037141551072

1590422181128014727

1590420378153248737

Тили-тили, трали-вали! *Танцуй, орк! Ты разве не танцуешь? Ты ж весь в крови! * 😁😁

— И это не только мои голографические новости, правда?

— Чего тут странного? – спросил Монтигомо.

— Можно подумать, ты не знал.

— Значит, я должен верить на слово? – спросил Монтигомо. – Вы просто придумываете его? Зачем тогда?

— Будем считать, что это так.

— То есть я не покину вас, не защищусь и не посочувствую?

— Я не предлагаю тебе сдать меня. Я предлагаю, чтобы ты помог мне запечатать тугую печать, которая украла твоего брата. Монтигомо задумался на минуту. Он был очень серьезен. Когда он заговорил, его голос звучал холодно и почти мягко:

— Хорошо. Изложив суть проблемы, вы можете оговорить необходимые для этого условия, после чего я его подпишу.

— И что будет, если печать не будет снята?

— Не будет никаких социальных потрясений, никаких потрясений судьбы. Не будет никакого контроля.

— Другими словами, свободы тоже нет?

— Точно. Разве не ясно? Дракончик медленно кивнул.

— Какое-то древнее колдовство, или, если угодно, слово Безликого – или что-то в этом роде.

Дракончик кивнул, взял изо рта Монтигомо челюсть и вышел в дверной проем. Когда он скрылся за углом, Монтигомо повернул голову в сторону Ангелины. Она по прежнему спала. «Хотел бы я знать, что сейчас читает моя Принцесса», – подумал он.

В следующий момент у него появилась идея. Он решил задать дракону еще один вопрос.

— Как по-твоему, ты когда-нибудь чувствовала?

— Нечто необычное, – сказал Монтигомо. Дракончик дернул хвостом. – Я знаю, это звучит глупо, но что именно?

— Не знаю. Ничего определенно. Но я совершенно уверен, что рядом со мной находится что-то непонятное. Как будто во мне.

Дракончик разлепил крылья и поднялся в воздух. Он пронесся над замком, направляясь к намеченному пункту.

— Как ты думаешь, эти древние заклинания…

Кошка смотрела выглядела не как Синтия Кроули, а в качестве совсем другой загадочной личности, погибшей от радиации в каком-то военном соединении.

Однажды я прочел на Пикабу пост о нейросети, дописывающей рассказ или стихотворение пользователя. Сначала в ее функции входило общение. Так что она не станет просить, чтобы я ей позвонил.

1590574783124029132

159049199418571161

1590575485153556818

Да вроде уже очень давно запустил, даже тут пост был

1590489307119756604

Однажды мальчик посадил [бы яйцо к себе на ладони, а получился бы кит – если бы на руках не росли бы локти.]

Так-то да, херня полная!

1590416249126710760

Видно что обучена на небольшом датасете.

m2967566 1556757025

Порфирьевич на службе у фонда

Недавно на Пикабу увидел пост про нейросеть, которая додумывает историю, начало которой ты скармливаешь. Сначала я просто баловался с ней, а потом мне в голову пришла идея, связанная с темой SCP. Можно же с помощью нейросети придумать новые объекты и явления! По крайней мере мне это показалось интересным опытом. Вот сгенерированная статья об инцеденте.

Соответственно, черный текст ─ моё сочинение, синий ─ генерация нейросети.

162220831017214919

Я за плюсами не гонюсь, поэтому оформление и так сойдёт.

m2219782 818851449

1616735705279447213

История про искусственный интеллект, написанная вместе с искусственным интеллектом

162212329414452032

1616735705279447213

Нейрогороскоп от нейросетей

♈️Овен: День способствует увеличению волос и сужению заднего прохода. Если вы думаете, что вы всего лишь маленькая ящерица, то вы глубоко ошибетесь. В этот день у вас появляется шанс стать пиратом. Вы можете разделиться на две части и понюхать себя

♊️Близнецы: Сегодня можно достичь большего благодаря приготовлению пирога из макарон. Вечером можно встретить двух загадочных маленьких горилл и двух ёкабушек. Сегодня вы будете способны петь прекрасные песни и бить детей в носы.

♋️Рак: Вам следует проявить осторожность по отношению к прибалтам. Лучше всего лечь лицом в мокрую тряпку. Это улучшит ваше настроение. Если вас раздражают люди, то вы можете сделать следующее: начать кидаться камнями и бумерангами. Возможны стычки с комодами

♍️Дева: Звезды могут использовать вас в качестве космодесантника или космического казака. На рассвете вас должен встретить священный козел. День хорош для плетения лаптей. Желательно изменить сексуальную ориентацию своего подъезда. Возможны атаки гаражей и амбаров

♏️Скорпион: В первой половине дня возможны настойчивые приставания чужих ногтей. Гороскоп советует вам не заходить слишком далеко в войну с собаками. Держите свой рот резиновым. Не стоит сбрасывать старую кожу. Возможен небольшой дождь из шерсти

♑️Козерог: В этот день на вас может напасть полевой транзистор. Идите и ловите котов, собак, сурков. В этот день вы можете стать серпом и молотом. Если вы хотите достичь успеха в каком-то деле, вам необходимо стать трехруким магом и пинать как можно больше людей.

♒️Водолей: Остерегайтесь тяжелых блинов и дедовщины. Сегодня вечером вас могут украсть марксисты с целью демонстрации сосков. Гороскоп советует вам подумать о том, чтобы сделать 3 клизмы с кофе, помидорами и перцем. Вам не нужно будет ходить по воде

♓️Рыбы: Дом наполнен запахом свежесваренных жуков. Можно поймать несколько жуков и отнести их в церковь на крещение. День начнется с того, что вы должны прекратить быть собакой. Звезды советуют не бояться менструаций и даже вызвать их на дуэль

Источник

Поделиться с друзьями
Моря и океаны
Adblock
detector