Блог компании BotHub Искусственный интеллект Машинное обучение * Научно-популярное Будущее здесь Обзор Вот недавно я сидел и пытался разобраться в одной теме. Всё закончилось на открытии десяти вкладок и погоней за новостями и отчётами. Вроде информации достаточно, но целостной картины нет. И тут я вспомнил, как один товарищ советовал мне Perplexity AI для поиска разной инфы. Я попробовал… Честно, первая реакция была скептичной. Очередной чат-бот, который обещает золотые горы, а на деле выдаёт бессвязный текст. Но я ввёл первый запрос и удивился. Сервис ответил со ссылками и короткими выдержками. В какой-то момент стало понятно, что это похоже на поиск нового поколения и было бы интересно познакомиться с ним подробнее. Сегодня у нас обзор Perplexity AI, приятного прочтения! Что за Perplexity? Perplexity это гибрид умного поиска и ассистента. Вы формулируете вопрос, система идёт по открытым источникам, собирает материалы, сопоставляет факты, отбрасывает шум и возвращает сводку с цитатами и активными ссылками на первоисточники. При необходимости ответ можно нарастить уточняющими вопросами, и Perplexity подтащит дополнительные данные. Помимо веба сервис понимает файлы и изображения: PDF, DOCX, длинные статьи и инфографику можно просить пересказать, выписать ключевые идеи, собрать таблицу KPI с номерами страниц. Источники поиска настраиваются под задачу. Если нужен общий фон, выбирайте Web, для научной повестки Academic, для отчётности и показателей Finance, для трендов и обсуждений Social. Под капотом доступны разные модели. В бесплатной версии выбор делается автоматически, в платных планах можно указывать движок руками, включая собственную Sonar, Claude и GPT. Форматы выдачи гибкие: короткие списки, табличные сводки, чек-листы, тезисы, а для длинных материалов есть генерация полноформатных текстов с картинками и форматированием. Как это устроено изнутри? Режим Search отвечает быстро и даёт выбрать тип источников. Это основной режим для справок, оперативных уточнений и коротких ответов с кликабельными ссылками. Если нужен глубокий разбор с большим покрытием, включайте Research. Он отправляет десятки подзапросов, просматривает сотни страниц и собирает подробный отчёт. Ответ готовится дольше, иногда несколько минут, но результат содержит больше фактов, диаграмм и перекрёстных ссылок. Для задач в формате проекта есть Labs. Что-то вроде конвейера: вы задаёте цель и входные данные, а на выходе получаете дашборд, таблицу, мини-инструмент, графики и даже изображения. Когда требуется готовый длинный текст, пригодится Pages. Он находит актуальную информацию, упорядочивает её и собирает статью или гайд в выбранном тоне, может подбирать изображения и делать перечень источников. Если хочется держать руку на пульсе, включайте Discover и настройте тематики. Для командной дисциплины и многоразовых процессов есть Spaces. Там задаются инструкции для ИИ в духе редакционных правил, подключаются файлы и общие источники, настраивается доступ для коллег. Ограничения по файлам зависят от тарифа, но о них позже, для рабочих пространств удобно, что можно подтягивать документы из облаков вроде Google Drive, OneDrive или SharePoint. А если нужен плотный серфинг и разработка в одном окне, пригодится Comet — собственный браузер с ИИ, который умеет анализировать страницу на лету, собирать заметки и автоматизировать рутинные шаги. Плюсы работы с Perplexity Самое заметное преимущество Perplexity — экономия времени на первичный сбор данных. Вместо того чтобы держать открытыми десяток-другой вкладок со статьями, новостями и исследованиями, вы делаете один запрос и получаете сводку по теме. Сервис сам ищет, фильтрует и агрегирует материалы — круто! Perplexity выручает, когда нужно оперативно разобрать большой текст. Если у вас на руках PDF, длинная статья или отчёт, можно попросить пересказ, выделение ключевых идей, план или тезисы. В результате вы не тонете в деталях, а сразу видите структуру и главное. В ряде независимых оценок Perplexity показывал хорошие результаты по достоверности источников и обоснованности ответов, об этом тоже позже, и негативные моменты также затронем. По доступности всё просто. Есть базовая бесплатная версия. Её хватает для простых запросов и общей справочной информации. На повседневные задачи этого более чем достаточно, если не нужна глубокая проработка темы или академическая точность. Минусы работы с Perplexity За удобством скрываются и ограничения. Они важны, если от результата зависят решения. Во-первых, несмотря на наличие ссылок, Perplexity иногда выдаёт неточные или сомнительные ответы, особенно в узких и сложных темах. Во-вторых, качество источников не всегда одинаково высокое. Даже когда ссылки есть, в выдачу могут попадать медийные сайты, блоги и устаревшие страницы. Методологические работы об этом прямо говорят. Я читал о случаях, когда ответ опирается на не самые надёжные ресурсы, а система придаёт им слишком большой вес. Это легко пропустить, если не открывать первоисточники. В-третьих, длинные и многошаговые запросы даются не идеально. Контекст может рассыпаться после пары-тройки уточнений. Ответы становятся фрагментарными, как набор карточек, и связь между ними теряется. Пользователи отмечали, что при одновременной проверке нескольких URL сервис мог забыть часть ссылок. Для длинной работы это, конечно, минус. Есть и вопросы к прозрачности в целом. Из-за массового краулинга контента сервис критиковали за методы сбора данных. Среди источников изредка может оказаться материал с нарушенными правами или сомнительным контекстом. Но это редкие случаи, но их стоит иметь в виду и фильтровать выдачу. Как формулировать запросы? Лучше всего рабо��ает принцип одна цель на один запрос. Если задача звучит как всё и сразу, ответ будет расплывчатым. Полезно придерживаться схемы контекст-цель-критерии-формат-источники-ограничения-проверка-экспорт. Контекст фиксирует регион, период и предметную область. Цель формулируется конкретно: что нужно на выходе — обзор, таблица, чек-лист, список рисков. Критерии задают ожидания по глубине и охвату: сколько пунктов, какие метрики, какие пороговые даты. Формат определяет структуру вывода, например, таблица из шести колонок. Источники полезно ограничить типами: Academic и Finance для аккуратности, Web для широты, Social для среза обсуждений. Ограничения скажут, чего не надо: исключи блоги без авторов и материалы старше 2021 года, отдай приоритет отчётам регуляторов и рецензируемым публикациям. Проверка — это просьба указать слабые места данных и альтернативные трактовки, чтобы сразу видеть, где грунт, так скажем, зыбкий. Экспорт — это финальный шаг: попросите сохранить итог в нужном формате или сгенерировать ссылку для коллег. Интересные исследования о Perplexity В 2025 году вышло исследование под названием Assessing Web Search Credibility and Response Groundedness in Chat Assistants . Оно оценивает поведение чат-ассистентов с веб-поиском по достоверности источников на 100 утверждениях из тем, склонных к дезинформации (здоровье, климат, политика). Perplexity лидирует по credibility rate (86.3%) и минимальному использованию низкодостоверных источников (0.69%), показывая стабильную groundedness с низким уровнем non-credible groundedness. С другой стороны, в исследовании Assessing the performance of 8 AI chatbots in bibliographic reference retrieval , посвящённом проверке способности сервисов формировать академические библиографические ссылки, Perplexity оказался одним из худших по части фабрикации ссылок. Анализ 8 чатботов выявил, что только 26.5% ссылок полностью верны, 39.8% — ошибочны или сфабрикованы. Perplexity входит в группу с высокими показателями "hallucination" (фабрикация ссылок), уступая Grok и DeepSeek. В работе DeepTRACE: Auditing Deep Research AI Systems for Tracking Reliability Across Citations and Evidence , где анализировали надёжность deep‑research систем вроде Perplexity на более фундаментальном уровне, подчеркнута тенденция к чрезмерной уверенности и возможной манипуляции фактами. Perplexity демонстрирует сниженную overconfidence в deep-режиме, но сохраняет one-sided ответы и 40–80% точность цитирования с большим числом неподтвержденных утверждений. Давайте посмотрим реальные возможности на тестах! Тестируем! Ну а тестировать мы будем в агрегаторе нейросетей BotHub. Это отечественная платформа, которая объединяет в себе всё: от генерации текстов и картинок до работы с видео, документами и кодом. Здесь не нужно ставить VPN, искать обходы или регистрироваться в десяти разных местах. Всё работает в одном интерфейсе! А для работы с текстом тут доступно 11 нейросетей, включая наш Perplexity! При регистрации по этой ссылке Bothub дарит 100 000 капсов — забирайте бонус и начинайте творить бесплатно! Многоэтапный анализ научной статьи Загрузи и проанализируй полную статью 'DeepTRACE: Auditing Deep Research AI Systems' (arxiv.org/abs/2509.04499): выдели методологию, ключевые метрики оценки Perplexity, сравни с baseline-моделями в таблице, выяви слабые места в цитировании и предложи улучшения для deep-research. Ответ 2. Комплексный анализ данных с визуализацией Возьми данные из двух исследований ('Assessing Web Search Credibility' arxiv.org/abs/2510.13749 и 'Bibliographic Reference Retrieval' arxiv.org/abs/2505.18059): объедини метрики Perplexity (credibility rate, hallucination %), нормализуй по шкале 0-100, создай сравнительную таблицу с Grok/Claude/Gemini, построй heatmap корреляций и график radar для сильных/слабых сторон. Выводи код Python и интерпретацию. Ответ import pandas as pd import numpy as np import matplotlib.pyplot as plt import seaborn as sns from math import pi # Данные из исследований data = { 'Система': ['Grok', 'DeepSeek', 'Perplexity', 'Gemini', 'Claude', 'ChatGPT', 'Copilot', 'Qwen'], 'Credibility': [92, 88, 87.5, 82, 75, 70, 68, 65], 'Accuracy': [100, 100, 60.2, 65, 50, 55, 48, 58], 'Hallucination': [0, 0, 39.8, 35, 50, 45, 52, 42], 'Citation_Grounding': [95, 92, 58, 68, 55, 52, 45, 60], 'Reference_Quality': [100, 100, 61, 70, 48, 50, 42, 55] } df = pd.DataFrame(data) # 1. HEATMAP корреляций fig, axes = plt.subplots(2, 2, figsize=(16, 14)) # Подготовка данных для heatmap metrics_df = df[['Credibility', 'Accuracy', 'Hallucination', 'Citation_Grounding', 'Reference_Quality']] correlation_matrix = metrics_df.corr() # Heatmap 1: Корреляции между метриками sns.heatmap(correlation_matrix, annot=True, fmt='.2f', cmap='RdYlGn', center=0, cbar_kws={'label': 'Корреляция'}, ax=axes[0, 0], vmin=-1, vmax=1, square=True, linewidths=1) axes[0, 0].set_title('Корреляционная матрица метрик оценки', fontsize=12, fontweight='bold') # Heatmap 2: Производительность систем по метрикам systems_metrics = df.set_index('Система')[['Credibility', 'Accuracy', 'Citation_Grounding', 'Reference_Quality']] sns.heatmap(systems_metrics.T, annot=True, fmt='.1f', cmap='YlOrRd', cbar_kws={'label': 'Оценка (%)'}, ax=axes[0, 1], linewidths=1) axes[0, 1].set_title('Производительность систем по метрикам', fontsize=12, fontweight='bold') axes[0, 1].set_xlabel('Система') axes[0, 1].set_ylabel('Метрика') # 2. RADAR диаграмма сильных/слабых сторон (для топ-3 систем) top_systems = ['Grok', 'DeepSeek', 'Perplexity'] categories = ['Credibility', 'Accuracy', 'Citation_Grounding', 'Reference_Quality', 'Hallucination'] N = len(categories) angles = [n / float(N) * 2 * pi for n in range(N)] angles += angles[:1] ax = plt.subplot(2, 2, 3, projection='polar') colors = ['#FF6B6B', '#4ECDC4', '#45B7D1'] for idx, system in enumerate(top_systems): values = [ df[df['Система'] == system]['Credibility'].values, df[df['Система'] == system]['Accuracy'].values, df[df['Система'] == system]['Citation_Grounding'].values, df[df['Система'] == system]['Reference_Quality'].values, 100 — df[df['Система'] == system]['Hallucination'].values # Инвертированное значение ] values += values[:1] ax.plot(angles, values, 'o-', linewidth=2, label=system, color=colors[idx]) ax.fill(angles, values, alpha=0.25, color=colors[idx]) ax.set_xticks(angles[:-1]) ax.set_xticklabels(categories, size=10) ax.set_ylim(0, 100) ax.set_yticks([20, 40, 60, 80, 100]) ax.set_title('Профиль сильных/слабых сторон\n(Топ-3 системы)', fontsize=12, fontweight='bold', pad=20) ax.legend(loc='upper right', bbox_to_anchor=(1.3, 1.1)) ax.grid(True) # 3. Сравнительная гистограмма всех систем systems = df['Система'].values x_pos = np.arange(len(systems)) width = 0.2 ax = plt.subplot(2, 2, 4) bars1 = ax.bar(x_pos — width*1.5, df['Credibility'], width, label='Credibility', color='#2E86AB') bars2 = ax.bar(x_pos — width/2, df['Accuracy'], width, label='Accuracy', color='#A23B72') bars3 = ax.bar(x_pos + width/2, 100 — df['Hallucination'], width, label='Reliability (1-Halluc)', color='#F18F01') bars4 = ax.bar(x_pos + width*1.5, df['Citation_Grounding'], width, label='Citation Grounding', color='#C73E1D') ax.set_xlabel('Система', fontsize=11, fontweight='bold') ax.set_ylabel('Оценка (%)', fontsize=11, fontweight='bold') ax.set_title('Комплексное сравнение всех систем', fontsize=12, fontweight='bold') ax.set_xticks(x_pos) ax.set_xticklabels(systems, rotation=45, ha='right') ax.legend(loc='lower right', fontsize=9) ax.set_ylim(0, 110) ax.grid(axis='y', alpha=0.3) ax.axhline(y=70, color='green', linestyle='—', linewidth=1, alpha=0.5, label='Пороговое значение') plt.tight_layout() plt.savefig('ai_systems_comprehensive_analysis.png', dpi=300, bbox_inches='tight') print("✓ График сохранен: ai_systems_comprehensive_analysis.png") plt.show() # Статистический анализ print("\n" + "="*70) print("СТАТИСТИЧЕСКИЙ АНАЛИЗ МЕТРИК") print("="*70) for metric in ['Credibility', 'Accuracy', 'Citation_Grounding', 'Reference_Quality']: mean_val = df[metric].mean() std_val = df[metric].std() max_sys = df.loc[df[metric].idxmax(), 'Система'] min_sys = df.loc[df[metric].idxmin(), 'Система'] print(f"\n{metric}:") print(f" Среднее: {mean_val:.1f}% | Std Dev: {std_val:.1f}%") print(f" Максимум: {max_sys} ({df[metric].max():.1f}%)") print(f" Минимум: {min_sys} ({df[metric].min():.1f}%)") # Корреляция между главными метриками print("\n" + "="*70) print("КЛЮЧЕВЫЕ КОРРЕЛЯЦИИ") print("="*70) print(f"Credibility ↔ Accuracy: {correlation_matrix.loc['Credibility', 'Accuracy']:.3f}") print(f"Accuracy ↔ Hallucination: {correlation_matrix.loc['Accuracy', 'Hallucination']:.3f}") print(f"Credibility ↔ Citation_Grounding: {correlation_matrix.loc['Credibility', 'Citation_Grounding']:.3f}") 3. Написание кода Создай полный Python-код для анализа портфеля акций. Сгенерируй случайные данные по 5 акциям (AAPL, TSLA, NVDA, GOOGL, MSFT) за 2025 год: цены, объемы, волатильность. Рассчитай Sharpe ratio, максимальную просадку (drawdown), Value at Risk (VaR 95%). Сравни портфели: 100% акции vs 60/40 акции/облигации vs S&P500 в таблице. Построй: (1) кумулятивную доходность с confidence bands, (2) heatmap корреляций, (3) efficient frontier с matplotlib/seaborn. Добавь Монте-Карло симуляцию (5000 сценариев) и рекомендации по ребалансировке. Ответ 4. Разработка бизнес-идей Проанализируй текущие вызовы в сфере deep-research AI, особенно по проблемам цитирования и достоверности данных. Предложи 5 инновационных бизнес-идей SaaS-платформ, которые помогут автоматизировать аудит научных статей, выявление ошибок цитирования и проверку фактов. Для каждой идеи опиши: целевой рынок (TAM/SAM), конкурентные преимущества, каналы монетизации, примерный roadmap от MVP до масштабирования, ключевые метрики успеха и возможные риски. Сформируй вывод в виде таблицы с сравнительным анализом по потенциалу доходности и реалистичности. Ответ Если взглянуть на все тесты — код, бизнес-идеи, анализ научных статей — Perplexity обработала их без явных проблем. Особенно понравились таблицы, но вот бизнес идея будто простовата и требует дополнительные промпты для улучшения структуры. Тут, мне кажется, GPT справился бы лучше. Платные функции и ограничения бесплатной версии Начнём с простого. Тарифы Perplexity делятся на три группы: персональные, образовательные и бизнес. Логика такая: одному человеку важны скорость и удобство без корпоративных заморочек, учебным аккаунтам нужен Pro по льготе, а компаниям важны команды, безопасность и администрирование. Персональные планы. Если вы работаете в одиночку, смотрите сюда. План Pro стоит около 20 долларов в месяц. Это базовая лошадка для ежедневного ресёрча. В ответах появляется больше цитат и источников, открывается Labs для проектных задач, можно без ограничений загружать файлы и изображения, расширяется доступ к Research для глубоких отчётов. Появляется расширенная генерация изображений и базовый видеорежим, а одна подписка покрывает свежие модели, в списке видны GPT‑5 и Claude Sonnet 4. Персональный Max стоит около 200 долларов в месяц. Это всё включено для тех, кто каждый день упирается в лимиты Pro. Включено всё из Pro, добавляется ранний доступ к новым продуктам, неограниченный доступ к Labs и Research, приоритетная поддержка, расширенные функции по видео и доступ к топовым моделям от OpenAI и Anthropic. Важно помнить, что Max предназначен для личного использования, не для команд. Образование. Если вы студент или преподаватель, есть Education Pro. Суть простая: подтверждаете статус и получаете Pro-бонусы без оплаты. По набору это фактически Pro. Разблокируется обучающий режим с карточками и викторинами, в ответах в разы больше цитат, есть доступ к Labs и расширенному Research, безлимит на загрузку файлов и фотографий, подписка покрывает актуальные модели ИИ, добавляют 5 долларов кредитов API. Бизнес-планы. Если нужна работа в команде и корпоративные требования, смотрите Enterprise. Enterprise Pro стоит около 40 долларов за пользователя в месяц. Вы получаете безлимитные Pro‑поиски, безлимитную загрузку файлов и изображений, без ограничений по участникам в Spaces, подключение Google Drive, SharePoint, Dropbox, OneDrive и Box, поддержку единого входа через провайдеров идентификации, доступ к API, соответствие требованиям безопасности уровня SOC 2 Type II. Enterprise Max стоит около 325 долларов за пользователя в месяц. Это расширенный пакет для крупных организаций. Включено всё из Enterprise Pro, плюс расширенный доступ к Labs и Research, ассистент Comet Max, премиальные функции безопасности уровня компании вроде настроек хранения данных и аналитики использования, увеличенное хранилище до 10 ТБ на команду, доступ к полному набору моделей и расширенные функции по видео, ранний доступ к новым возможностям продукта. Два практичных совета напоследок. «Безлимит» у бизнес‑планов обычно работает по принципу разумного использования, технические потолки всё равно есть, просто они высокие. Условия и наполнение тарифов меняются, перед оплатой откройте страницу тарифов и проверьте конкретные лимиты по Research, Labs, видео и доступным моделям, чтобы точно попасть в нужный пакет. Резюмируя В конце хочется напомнить, что нейросетям всё ещё рано безоговорочно дове��ять. Они ошибаются, фантазируют и иногда удивляют не в ту сторону. Они неплохи, но только как помощники, не более. Алгоритмы могут ускорить рутину, упростить сложное, вдохновиться и сэкономить время. Главное помнить, что за всеми этими технологиями стоим мы. Поэтому доверяйте, но проверяйте. И не забывайте, именно вы направляете всё это в нужное русло! Спасибо, что дошли до конца! А теперь очередь за вами. Расскажите, какие нейросети уже прописались в ваших закладках? И что вы думаете о Perplexity AI? Ждем ваше мнение в комментариях! Теги: Source: https://habr.com/ru/companies/bothub/articles/970884/