Бредогенератор: создаем тексты на любом языке с помощью нейронной сети
Эта статья будет в немного «пятничном» формате, сегодня мы займемся NLP. Не тем NLP, про который продают книжки в подземных переходах, а тем, который Natural Language Processing — обработка естественных языков. В качестве примера такой обработки будет использоваться генерация текста с помощью нейронной сети. Создавать тексты мы сможем на любом языке, от русского или английского, до С++. Результаты получаются весьма интересными, по картинке уже наверно можно догадаться.
Для тех, кому интересно что получается, результаты и исходники под катом.
Подготовка данных
Для обработки мы будем использовать особенный класс нейронных сетей — так называемые рекуррентные нейронные сети (RNN — recurrent neural network). Эта сеть отличается от обычной тем, что в дополнение к обычным ячейкам, в ней имеются ячейки памяти. Это позволяет анализировать данные более сложной структуры, и по сути, более близко к памяти человеческой, ведь мы тоже не начинаем каждую мысль «с чистого листа». Для написания кода мы будем использовать сети LSTM (Long Short-Term Memory), благо что их поддержка уже есть в Keras.
Следующая проблема, которую нужно решить, это собственно, работа с текстом. И здесь есть два подхода — подавать на вход либо символы, либо слова целиком. Принцип первого подхода прост: текст разбивается на короткие блоки, где «входами» является фрагмент текста, а «выходом» — следующий символ. Например, для последней фразы ‘входами является фрагмент текста’:
input: входами является фрагмент output: «т»
input: ходами является фрагмент т: output: «е»
input: одами является фрагмент те: output:»к»
input: дами является фрагмент тек: output: «с»
input: ами является фрагмент текс: output: «т».
И так далее. Таким образом, нейросеть получает на входе фрагменты текста, а на выходе символы, которые она должна сформировать.
Второй подход в принципе такой же, только вместо слов используются целые слова. Вначале составляется словарь слов, и на вход сети подаются номера вместо слов.
Это разумеется, достаточно упрощенное описание. Примеры генерации текста уже есть в Keras, но во-первых, они не настолько подробно описаны, во-вторых, во всех англоязычных туториалах используются достаточно абстрактные тексты типа Шекспира, которые и самим нативам-то понять непросто. Ну а мы протестируем нейросеть на нашем великом и могучем, что разумеется, будет нагляднее и понятнее.
Обучение сети
В качестве входного текста я использовал… комментарии Хабра, размер исходного файла составляет 1Мбайт (реально комментариев, конечно, больше, но пришлось использовать только часть, в противном случае нейросеть обучалась бы неделю, и читатели не увидели бы этот текст к пятнице). Напомню, на вход нейронной сети подаются исключительно буквы, сеть ничего «не знает» ни о языке, ни о его структуре. Поехали, запускаем обучение сети.
Пока что ничего не понятно, но уже можно видеть некоторые узнаваемые сочетания букв:
волит что все как как день что на страчает на вы просто пробравили порумет которы и спонка что в примом не прогыли поделе не повому то крабит. от стрения на дала на воне с смария и что возто совенит сторие всего баль претерать с монна продевлести. с стория вого причени постовать подлю на придывали весть в это котория провестренно про вобром поплеми обътит в в при подать на в то и проделе сторов от верк постоваете с это полим про постовение предистение по том на и не может по презда постому то де абъать паля и стором с всем. ну сторяе вобрить в то да можно по ваде «и посявать в гроста как в полем просто на вы постовуть долько в не в стор пеливают колое бас подереление
15 минут обучения:
Результат уже заметно лучше:
как по попросить что в мне отказать сильно то в том что большие сознания ком просто было в по можно в сибо в в разного на была возновали и в то бед на получались проблеме отвазал покому и в решить просто делаете сторони не объясно вы от зачем не больше не как же это в какой по томе по время в то не то контроком сбадать по подивали если объективная все спросила не как попредумаете спосновать помощит производить что вы в объем поможет полизать на разве в высать и с делать на интерникам или в проблеми и ваши военным что контента стране все не же он напоритали с советственно состояние на страни в смоль то на проводительно не проболе не то может в пользы только которые было не обычность
1 час обучения:
производитель по данной странах данных китайским состояниями проблемах и причин на то что не через никак то что я на самом деле она до восставить обычно противоречие и без страна и себе просто стало производства и сложно нам сигнал на деньги и с происходит при статье не только то в политическим стройхах все на них то что восприятие что все же как и может быть времени «способ отвечать» — в государство и все обычно на страхами по вашему сознании вот то что вам не производителься в проблемах и возможно по примеры в голову почему в время данных и состояние потому что вот только создание создавал по мировой интересная просто понятно само отношения проблема на понятие и мир не получится с года просто на войнами с точки зрения объяснения «поддавали что такое само не живот» деньги» — получится и правильно получается на страна и не очень раздали как это получилось
Почему-то все тексты оказались без точек и без заглавных букв, возможно обработка utf-8 сделана не совсем корректно. Но в целом, это впечатляет. Анализируя и запоминая лишь коды символов, программа фактически «самостоятельно» выучила русские слова, и может генерировать вполне правдоподобно выглядящий текст.
Не менее интересно и то, что программа неплохо «запоминает» стиль текста. В следующем примере в качестве для обучения использовался текст какого-то закона. Время тренировки сети 5 минут.
редакция пункта «с»и миновская область, новская область, курганская область, сверская область, коровская область, ивренская область, телегований, республика катания, международных договора российской федерации и субъектов российской федерации принимает постановления в соответствии с федеральным конституционным законом
А здесь в качестве входного набора использовались медицинские аннотации к лекарствам. Время тренировки сети 5 минут.
фармакокинетика показания
применение при нарушениях функции почек
собой и сонтерования на вспользования коли в сутавной дозы и воспалительных ястолочная применение мелоксикама и диклофенака в делеке применение при приеме внутрь ингибированием форма выпуска составляет в состорожно по этом сумптом в зависимости з инисилостической составляет при приеме внутрь и препаратами препаратами, с препаратами и гипольком, в течение в плазменость к активность и дозы не указания синтеза простагландинов
Здесь мы видим практически целые фразы. Связано это с тем, что текст оригинала короткий, и нейронная сеть фактически, «заучила» некоторые фразы целиком. Такой эффект называется «переобучением», и его стоит избегать. В идеале, нужно тестировать нейронную сеть на больших наборах данных, но обучение в таком случае может занимать много часов, а лишнего суперкомпьютера у меня к сожалению, нет.
Забавным примером использования такой сети является генерация имен. Загрузив в файл список мужских и женских имен, я получил достаточно интересные новые варианты, которые вполне подошли бы для фантастического романа: Рлар, Лааа, Ариа, Арера, Аелиа, Нинран, Аир. Чем-то в них чувствуется стиль Ефремова и «Туманности Андромеды»…
Интересно то, что по большому счету, нейронной сети всё равно что запоминать. Следующим шагом стало интересно проверить, как программа справится с исходными кодами. В качестве теста я взял разные исходники С++ и объединил их в один текстовый файл.
Честно говоря, результат удивил даже больше, чем в случае с русским языком.
Блин, это же практически настоящий С++.
Как можно видеть, программа «научилась» писать уже целые функции. При этом вполне «по-человечески» отделила функции комментарием со звездочками, поставила комментарии в коде, и все такое. Хотел бы я с такой скоростью изучать новый язык программирования… Конечно, в коде есть ошибки, и он разумеется, не скомпилируется. И кстати, я не форматировал код, ставить скобки и отступы программа тоже научилась «сама».
Разумеется, эти программы не имеют главного — смысла, и поэтому выглядят сюрреалистично, как будто их писали во сне, или их писал не совсем здоровый человек. Но тем не менее, результаты впечатляют. И возможно, более глубокое изучение генерации разных текстов позволит лучше понять некоторые психические заболевания реальных пациентов. Кстати, как подсказали в комментариях, такое психическое заболевание, при котором человек говорит грамматически связанным, но совершенно бесмыссленным текстом (шизофазия), действительно существует.
Заключение
Реккуретные нейронные сети считаются весьма перспективными, и это действительно, большой шаг вперед по сравнению с «обычными» сетями вроде MLP, не имеющих памяти. И действительно, возможности нейронных сетей по запоминанию и обработке достаточно сложных структур, впечатляют. Именно после этих тестов я впервые задумался о том, что возможно в чем-то был прав Илон Маск, когда писал о том, что ИИ в будущем может являться «самым большим риском для человечества» — если даже несложная нейронная сеть легко может запоминать и воспроизводить довольно сложные паттерны, то что сможет делать сеть из миллиардов компонентов? Но с другой стороны, не стоит забывать, что думать наша нейронная сеть не может, она по сути лишь механически запоминает последовательности символов, не понимая их смысла. Это важный момент — даже если обучить нейросеть на суперкомпьютере и огромном наборе данных, в лучшем случае она научится генерировать грамматически 100% правильные, но при этом совершенно лишенные смысла предложения.
Но не будет удаляться в философию, статья все же больше для практиков. Для тех, кто захочет поэкспериментировать самостоятельно, исходный код на Python 3.7 под спойлером. Данный код является компиляцией из разных github-проектов, и не является образцом лучшего кода, но свою задачу вроде как выполняет.
Думаю, получился вполне забористый работающий генератор текстов, который пригодится для написания статей на Хабр. Особенно интересно тестирование на больших текстах и больших количествах итераций обучения, если у кого есть доступ к быстрым компьютерам, было бы интересно увидеть результаты.
Если кто захочет изучить тему более подробно, хорошее описание использования RNN с детальными примерами есть на странице http://karpathy.github.io/2015/05/21/rnn-effectiveness/.
P.S.: И напоследок, немного стихов 😉 Интересно заметить, что и форматирование текста и даже добавление звездочек делал не я, «оно само». Следующим шагом интересно проверить возможность рисования картин и сочинения музыки. Думаю, нейронные сети тут достаточно перспективны.
по катых оспродиться в куках — все в неплу да в суде хлебе.
и под вечернем из тамаки
привада свечкой горого брать.
скоро сыни мось в петахи в трам
пахнет радости незримый свет,
оттого мне сколоткай росет
о ненеком не будешь сык.
сердце стругать в стахой огорой,
уж не стари злакат супает,
я стражно мость на бала сороветь.
в так и хорода дарин в добой,
слышу я в сердце снего на руку.
наше пой белой колько нежный думиной
отвотила рудовой бесть волоть.
вет распуя весерцы закланом
и под забылинким пролил.
и ты, ставь, как с веткам кубой
светят в оночест.
о весели на закото
с тровенной полет молокы.
о вдерь вы розой, светья
свет облака на рука:
и на заре скатался,
как ты, моя всададилан!
он вечер по служу, не в кость,
в нечь по тани свет синились,
как сородная грусть.
И последние несколько стихов в режиме обучения по словам. Тут пропала рифма, зато появился (?) некий смысл.
а ты, от пламень,
звезды.
говорили далекие лицам.
тревожит ты русь,, вас,, в завтраму.
«голубя дождик,
и в родину в убийцах,
за девушка-царевна,
его лик.
о пастух, взмахни палаты
на роще по весной.
еду по сердце дома к пруду,
и мыши задорно
нижегородский бубенец.
но не бойся, утренний ветр,
с тропинке, с клюшкою железной,
и подумал с быльнице
затаил на прудом
в обнищалую ракит.
Эти чертовы машины все умнее! Писателям и журналистам пора на покой из-за нейросети-копирайтера
Лингвист Максим Ильяхов протестировал работу новой нейросети, которая сама может сгенерировать текст на основе только одной фразы, введенной человеком. Результатом своего эксперимента Ильяхов поделился в Instagram. И надо признать, что текст нейросети получился довольно неожиданным. «360» разбирался в работе нового сервиса.
Русский лингвист и редактор Максим Ильяхов поделился в Instagram результатами эксперимента с нейронной сетью Talk to Transformer. Суть сервиса заключается в том, что на основе только одного предложения, которое вводит человек, робот создает текст.
Экспериментальная фраза Максима была: «Трудно начинать с нуля, если ты молодая мама» — он ввел ее в специальном поле, после чего нейросеть начала писать.
На первый взгляд сгенерированный текст вполне связный. С его переводом на русский язык (нейросеть пишет на английском) помог Google-переводчик. По словам Максима, в итоговом тексте он не исправил ни одной буквы.
Да, в переводе есть некоторая неестественность, но, несмотря на это, результат получился неожиданным и даже пугающим.
«Сырая технология, нулевое участие человека, но это уже работает», — написал Максим в комментарии к серии опубликованных фото.
Работа нейросети действительно поражает, и устоять перед ней практически невозможно. Вводим простое предложение: «На прошлых выходных поехали с друзьями на пикник». Дальше просим машину составить на его основе текст.
Источник фото: телеканал «360»
Дальше переводим текст с помощью Gооglе-переводчика и получаем конечный результат. И, надо сказать, он пугает — нейросеть написала трагичную историю.
Источник фото: телеканал «360»
Пробуем еще раз. Повторяем ту же схему, только на этот раз специально задаем веселый тон: «На вечеринке все отдыхали и веселились».
Источник фото: телеканал «360»
На этот раз нейросеть написала текст про группу студентов, устроивших вечеринку в кампусе.
Источник фото: телеканал «360»
Дальше решаем усложнить задачу и составить текст уже не про вечеринки. Задаем тему: «Возможно ли, что искусственный интеллект будет работать вместо людей?» И проводим те же манипуляции, что и в предыдущие разы.
Интересно, что в тексте нейросеть составила повествование от лица человека. Робот-автор сгенерировал предложение и составил на его основании вопрос: «Возможно ли, что искусственный интеллект будет работать вместо людей, чтобы помогать людям ориентироваться и принимать решения, или он может стать настолько продвинутым, что машины смогут делать все, что могут люди, и делать это лучше?» Дальше нейросеть ставит еще несколько вопросов на эту тему и даже предлагает читателям обратиться к колонке, написанной якобы автором этого текста.
В конце сгенерированной истории «автор текста» предлагает обратиться к слону и на этом перевод обрывается. Но, несмотря на смешную ошибку в придуманной нейросетью истории, общий вывод можно назвать почти пугающим, ведь теперь у людей появился повод для размышлений: как скоро такие проекты перестанут быть просто развлечением и что еще может научиться делать нейросеть.
Нейросеть ruGPT-3 для генерации текстового контента
На днях наткнулся на интересную разработку от SberCloud.
Делюсь ею с вами в надежде, что найдутся свободные умы и большой объем времени для полезного применения в нашей с вами работе.
Удивительно, но чтобы воспользоваться самой большой нейросетью для русского языка ruGPT-3, мне не пришлось ехать в отделение Сбера. Каламбур!)
RuGPT-3 может не только создавать тексты любого профиля (новости, романы, стихи, пародии, техническую документацию и так далее), но также исправлять грамматические ошибки, вести диалоги и писать программный код.
По сути, это прообраз общего, или сильного, искусственного интеллекта (Artificial General Intelligence, AGI), способного решать разноплановые задачи в различных сферах деятельности cnews.ru
Тесты
Ради интереса я засунул кусок текста из описания оффера «IdealFit — капли для похудения»:
IdealFit (Идеалфит) — эффективный жиросжигающий комплекс в виде капель на основе натуральных природных компонентов. Позволяет в кратчайшие сроки сбросить нежелательные килограммы и восстановить баланс в организме без мучительных диет, изнурительных тренировок, побочных эффектов и проблем со здоровьем.
И вот что получил на выходе:
Тут дублируется то, что я скормил в качестве «затравки», а далее уже генерированный текст.
Цикл включает 3 основных этапа:
Капсулы «ИдеалФит» содержат натуральный состав, изготовленный из натуральных компонентов, действие которых направлено на укрепление и оздоровление организма.
В состав «ИдеалФит», помимо экстрактов трав, входящих в состав комплекса, входят витамины, микроэлементы и высокоэффективные антиоксиданты.
Дозировка препарата подобрана таким образом, что его эффект будет заметен при частоте приема не менее двух раз в день на протяжении 1-2 месяцев. Рекомендуется начинать прием продукта в сочетании с другими средствами, оказывающими жиросжигющее действие, так как входящие в состав препарата компоненты усиливают действие друг друга.
Предостережения : прием препарата не рекомендуется при индивидуальной непереносимости компонентов, а также при нарушении всасывания жиров в кишечнике.
Лицам, склонным к аллергии и индивидуальной не переносимости препарата, принимать препарат «ИдеальФит. Капсула» не рекомендуется.
Рекомендации по применению : рекомендуется принимать по 1 капсуле в день с первым приемом пищи. Продолжительность приёма составляет 1-3 месяца. При необходимости следует делать перерывы на 2-3 недели.
Продукт не является лекарственным средством.
Перед началом приема проконсультируйтесь со специалистом.
Свидетельство о государственной регистрации No RU.77.99.11.003.E.02917.05.14 от 17.052014 г.
Дозировки и содержание компонентов в косметике, пище и БАДах могут меняться производителями без предварительного уведомления. Domuxus LLC являются зарегистрированной торговой маркой компании Domudexus International Corporation.
Нужно бы немного причесать, но в целом очень даже неплохо. Я не имею и малейшего представления о свидетельствах регистрации, что там за состав и тд. Но полотно выглядит «мамонто-пригодным»
Второй тест
Вставлять сюда полностью текст не буду, можете нажать на картинку и посмотреть что из этого вышло. То, что сгенерировала нейронка — под чертой.
Конкретно для меня в рамках статей — это масло масленое, но есть и другая задумка, где может очень пригодится генерация уникальных текстов.
По моим тестам, к сожалению, не всегда все так гладко.
Если у вас есть идеи применения данной штуки — буду рад вашим комментариям в нашем чате Арбитраж Трафика
Поделиться ссылкой:
Добавить комментарий Отменить ответ
Для отправки комментария вам необходимо авторизоваться.
Нейросеть, которая помогает дописывать ваши истории и стихи
Российский программист Михаил Гранкин создал и запустил на открытом для всех пользователей сети Интернет ресурсе (судя по IP-адресу в облаке Amazon) русский аналог нейросети GPT-2 компании OpenAI.
Проект получил название «Порфирьевич», данная нейросеть умеет генерировать тексты с осмысленным содержанием на основе нескольких слов или пары предложений на русском языке.
В примере на фотографии синим цветом выделены слова, которые дописывает программа.
Как работает нейросеть?
Пользователь должен ввести связанный текст и нажать кнопку «Продолжить рассказ»
Если полученный результат вас не устраивает или оказался нелогичным, то можно нажать кнопку «Сменить текст» и заменить предложение новым вариантом
Нейросеть очень умная и способна удивлять.
Искусственный интеллект
409 постов 5K подписчиков
Правила сообщества
Здесь вы можете свободно создавать посты по теме Искусственного интеллекта. Добро пожаловать 🙂
— Делиться вопросами, мыслями, гипотезами, юмором на эту тему.
— Делиться статьями, понятными большинству аудитории Пикабу.
— Делиться опытом создания моделей машинного обучения.
— Рассказывать, как работает та или иная фиговина в анализе данных.
— Век жить, век учиться.
I) Невостребованный контент
I.1) Создавать контент, сложный для понимания. Такие посты уйдут в минуса лишь потому, что большинству неинтересно пробрасывать градиенты в каждом тензоре реккурентной сетки с AdaGrad оптимизатором.
I.2) Создавать контент на «олбанском языке» / нарочно игнорируя правила РЯ даже в шутку. Это ведет к нечитаемости контента.
II) Нетематический контент
II.1) Создавать контент, несвязанный с Data Science, математикой, программированием.
II.2) Создавать контент, входящий в противоречие существующей базе теорем математики. Например, «Земля плоская» или «Любое действительное число представимо в виде дроби двух целых».
II.3) Создавать контент, входящий в противоречие с правилами Пикабу.
III) Непотребный контент
Посадил дед репку и говорит:
— Расти, расти, репка, сладка! Расти, расти, репка, крепка!
Выросла репка сладка, крепка, большая-пребольшая.
Пошел дед репку рвать: тянет-потянет, вытянуть не может.
Позвал дед апостолов своих и говорит: — Вы, апостолы, идите в лес да погуляйте, раз такое дело.
Получаются какие-то «ужасы нашего городка».
Всё как положено, а вот собака-то, собака, нашлась, собака! Ну я и сказал: «Смотрите, вот она, собака! Вот она, собака!».
Что произошло дальше, описать просто невозможно, но вслед за этим начался настоящий кошмар.
Спасибо поржал от души
Похоже мне только что вынесли приговор.
Как-то утром на рассвете я решил встать и прогуляться по двору навстречу утренней прохладе. Но вдруг мне стало страшно: вдруг за мной придет Мамаев или Железовский?
шёл медведь по лесу, увидел горящую машину и бросился к ней. От самой середины салона до его краев тянулась полоса пламени. Кто-то стоял на насыпи и целился в него из обреза.
И где он вообще? Вот здесь с ответом попроще — чтобы поискать его, достаточно открыть глаза.
Открыл, но понять, где очутился, не смог. (Артем Каменистый. Пять жизней читера)
[В ноге что-то жалобно ныло, а в центре — расплывалось и смещалось что-то круглое и волосатое. Андрей застонал и схватился рукой за ногу. Оказалось, что он висит в петле на яблоне — странное дерево. Яблоня была полностью энтих размеров, и, по всем расчетам, до земли было не более трех метров. Значит, висел он не на ней, а где-то на высоте тридцати-сорока метров. И что теперь делать? Или лучше падать в путь?]
Поменял слов пять бредовых и вырезал порнуху сначала,которую пробовал заставить его написать.
Тили-тили, трали-вали! *Танцуй, орк! Ты разве не танцуешь? Ты ж весь в крови! * 😁😁
— И это не только мои голографические новости, правда?
— Чего тут странного? – спросил Монтигомо.
— Можно подумать, ты не знал.
— Значит, я должен верить на слово? – спросил Монтигомо. – Вы просто придумываете его? Зачем тогда?
— Будем считать, что это так.
— То есть я не покину вас, не защищусь и не посочувствую?
— Я не предлагаю тебе сдать меня. Я предлагаю, чтобы ты помог мне запечатать тугую печать, которая украла твоего брата. Монтигомо задумался на минуту. Он был очень серьезен. Когда он заговорил, его голос звучал холодно и почти мягко:
— Хорошо. Изложив суть проблемы, вы можете оговорить необходимые для этого условия, после чего я его подпишу.
— И что будет, если печать не будет снята?
— Не будет никаких социальных потрясений, никаких потрясений судьбы. Не будет никакого контроля.
— Другими словами, свободы тоже нет?
— Точно. Разве не ясно? Дракончик медленно кивнул.
— Какое-то древнее колдовство, или, если угодно, слово Безликого – или что-то в этом роде.
Дракончик кивнул, взял изо рта Монтигомо челюсть и вышел в дверной проем. Когда он скрылся за углом, Монтигомо повернул голову в сторону Ангелины. Она по прежнему спала. «Хотел бы я знать, что сейчас читает моя Принцесса», – подумал он.
В следующий момент у него появилась идея. Он решил задать дракону еще один вопрос.
— Как по-твоему, ты когда-нибудь чувствовала?
— Нечто необычное, – сказал Монтигомо. Дракончик дернул хвостом. – Я знаю, это звучит глупо, но что именно?
— Не знаю. Ничего определенно. Но я совершенно уверен, что рядом со мной находится что-то непонятное. Как будто во мне.
Дракончик разлепил крылья и поднялся в воздух. Он пронесся над замком, направляясь к намеченному пункту.
— Как ты думаешь, эти древние заклинания…
Кошка смотрела выглядела не как Синтия Кроули, а в качестве совсем другой загадочной личности, погибшей от радиации в каком-то военном соединении.
Однажды я прочел на Пикабу пост о нейросети, дописывающей рассказ или стихотворение пользователя. Сначала в ее функции входило общение. Так что она не станет просить, чтобы я ей позвонил.
Да вроде уже очень давно запустил, даже тут пост был
Однажды мальчик посадил [бы яйцо к себе на ладони, а получился бы кит – если бы на руках не росли бы локти.]
Так-то да, херня полная!
Видно что обучена на небольшом датасете.
Порфирьевич на службе у фонда
Недавно на Пикабу увидел пост про нейросеть, которая додумывает историю, начало которой ты скармливаешь. Сначала я просто баловался с ней, а потом мне в голову пришла идея, связанная с темой SCP. Можно же с помощью нейросети придумать новые объекты и явления! По крайней мере мне это показалось интересным опытом. Вот сгенерированная статья об инцеденте.
Соответственно, черный текст ─ моё сочинение, синий ─ генерация нейросети.
Я за плюсами не гонюсь, поэтому оформление и так сойдёт.
История про искусственный интеллект, написанная вместе с искусственным интеллектом
Нейрогороскоп от нейросетей
♈️Овен: День способствует увеличению волос и сужению заднего прохода. Если вы думаете, что вы всего лишь маленькая ящерица, то вы глубоко ошибетесь. В этот день у вас появляется шанс стать пиратом. Вы можете разделиться на две части и понюхать себя
♊️Близнецы: Сегодня можно достичь большего благодаря приготовлению пирога из макарон. Вечером можно встретить двух загадочных маленьких горилл и двух ёкабушек. Сегодня вы будете способны петь прекрасные песни и бить детей в носы.
♋️Рак: Вам следует проявить осторожность по отношению к прибалтам. Лучше всего лечь лицом в мокрую тряпку. Это улучшит ваше настроение. Если вас раздражают люди, то вы можете сделать следующее: начать кидаться камнями и бумерангами. Возможны стычки с комодами
♍️Дева: Звезды могут использовать вас в качестве космодесантника или космического казака. На рассвете вас должен встретить священный козел. День хорош для плетения лаптей. Желательно изменить сексуальную ориентацию своего подъезда. Возможны атаки гаражей и амбаров
♏️Скорпион: В первой половине дня возможны настойчивые приставания чужих ногтей. Гороскоп советует вам не заходить слишком далеко в войну с собаками. Держите свой рот резиновым. Не стоит сбрасывать старую кожу. Возможен небольшой дождь из шерсти
♑️Козерог: В этот день на вас может напасть полевой транзистор. Идите и ловите котов, собак, сурков. В этот день вы можете стать серпом и молотом. Если вы хотите достичь успеха в каком-то деле, вам необходимо стать трехруким магом и пинать как можно больше людей.
♒️Водолей: Остерегайтесь тяжелых блинов и дедовщины. Сегодня вечером вас могут украсть марксисты с целью демонстрации сосков. Гороскоп советует вам подумать о том, чтобы сделать 3 клизмы с кофе, помидорами и перцем. Вам не нужно будет ходить по воде
♓️Рыбы: Дом наполнен запахом свежесваренных жуков. Можно поймать несколько жуков и отнести их в церковь на крещение. День начнется с того, что вы должны прекратить быть собакой. Звезды советуют не бояться менструаций и даже вызвать их на дуэль