]> git.immae.eu Git - github/fretlink/text-pipes.git/commitdiff
Bumped bounds for pipes-bytestring. Made types agree with pipes-bytestring where...
authormichaelt <what_is_it_to_do_anything@yahoo.com>
Thu, 26 Jun 2014 19:40:43 +0000 (21:40 +0200)
committermichaelt <what_is_it_to_do_anything@yahoo.com>
Thu, 26 Jun 2014 19:40:43 +0000 (21:40 +0200)
.gitignore
Fu.sh [deleted file]
Pipes/Text.hs
Pipes/Text/Encoding.hs
changelog
pipes-text.cabal

index 2e23740ded6615614f1ecf0e46b7cdf9e1ef120b..305047992f0677853065e330803128daece11074 100644 (file)
@@ -6,5 +6,6 @@ cabal-dev
 *.chi
 *.chs.h
 *.py
 *.chi
 *.chs.h
 *.py
+*.sh
 .virthualenv
 
 .virthualenv
 
diff --git a/Fu.sh b/Fu.sh
deleted file mode 100644 (file)
index 4bf20d6..0000000
--- a/Fu.sh
+++ /dev/null
@@ -1,22 +0,0 @@
-#!/usr/bin/env bash
-cabal configure && cabal build && cabal haddock --hyperlink-source \
-                                    --html-location='/package/$pkg-version/docs' \
-                                    --contents-location='/package/$pkg'
-S=$?
-if [ "${S}" -eq "0" ]; then
-    cd "dist/doc/html"
-    DDIR="${1}-${2}-docs"
-    cp -r "${1}" "${DDIR}" && tar -c -v -z --format=ustar -f "${DDIR}.tar.gz" "${DDIR}"
-    CS=$?
-    if [ "${CS}" -eq "0" ]; then
-        echo "Uploading to Hackageā€¦"
-        curl -X PUT -H 'Content-Type: application/x-tar' -H 'Content-Encoding: gzip' --data-binary "@${DDIR}.tar.gz" "http://${3}:${4}@hackage.haskell.org/package/${1}-${2}/docs"
-        exit $?
-    else
-        echo "Error when packaging the documentation"
-        exit $CS
-    fi
-else
-    echo "Error when trying to build the package."
-    exit $S
-fi
\ No newline at end of file
index 38811ed33a8f602d0ee2d63773a2a985f17e1579..45b92995d555b6cbfd0c972a2c69221389d69cc8 100644 (file)
@@ -1,25 +1,24 @@
 {-# LANGUAGE RankNTypes, TypeFamilies, BangPatterns, Trustworthy #-}
 
 {-# LANGUAGE RankNTypes, TypeFamilies, BangPatterns, Trustworthy #-}
 
-
 module Pipes.Text  (
     -- * Effectful Text
     -- $intro
 module Pipes.Text  (
     -- * Effectful Text
     -- $intro
-    
+
     -- * Lenses
     -- $lenses
     -- * Lenses
     -- $lenses
-    
+
     -- ** @view@ \/ @(^.)@
     -- $view
 
     -- ** @over@ \/ @(%~)@
     -- $over
     -- ** @view@ \/ @(^.)@
     -- $view
 
     -- ** @over@ \/ @(%~)@
     -- $over
-    
+
     -- ** @zoom@
     -- $zoom
     -- ** @zoom@
     -- $zoom
-    
+
     -- * Special types: @Producer Text m (Producer Text m r)@ and @FreeT (Producer Text m) m r@
     -- $special
     -- * Special types: @Producer Text m (Producer Text m r)@ and @FreeT (Producer Text m) m r@
     -- $special
-    
+
     -- * Producers
     fromLazy
 
     -- * Producers
     fromLazy
 
@@ -27,17 +26,13 @@ module Pipes.Text  (
     , map
     , concatMap
     , take
     , map
     , concatMap
     , take
-    , drop
     , takeWhile
     , takeWhile
-    , dropWhile
     , filter
     , filter
-    , scan
-    , pack
-    , unpack
     , toCaseFold
     , toLower
     , toUpper
     , stripStart
     , toCaseFold
     , toLower
     , toUpper
     , stripStart
+    , scan
 
     -- * Folds
     , toLazy
 
     -- * Folds
     , toLazy
@@ -53,7 +48,6 @@ module Pipes.Text  (
     , minimum
     , find
     , index
     , minimum
     , find
     , index
-    , count
 
     -- * Primitive Character Parsers
     , nextChar
 
     -- * Primitive Character Parsers
     , nextChar
@@ -62,7 +56,7 @@ module Pipes.Text  (
     , peekChar
     , isEndOfChars
 
     , peekChar
     , isEndOfChars
 
-    -- * Parsing Lenses 
+    -- * Parsing Lenses
     , splitAt
     , span
     , break
     , splitAt
     , span
     , break
@@ -71,34 +65,34 @@ module Pipes.Text  (
     , word
     , line
 
     , word
     , line
 
-    -- * FreeT Splitters
+    -- * Transforming Text and Character Streams
+    , drop
+    , dropWhile
+    , pack
+    , unpack
+    , intersperse
+
+    -- * FreeT Transformations
     , chunksOf
     , splitsWith
     , splits
     , groupsBy
     , groups
     , lines
     , chunksOf
     , splitsWith
     , splits
     , groupsBy
     , groups
     , lines
-    , words
-
-    -- * Transformations
-    , intersperse
-    , packChars
-    
-    -- * Joiners
-    , intercalate
     , unlines
     , unlines
+    , words
     , unwords
     , unwords
+    , intercalate
 
     -- * Re-exports
     -- $reexports
     , module Data.ByteString
     , module Data.Text
 
     -- * Re-exports
     -- $reexports
     , module Data.ByteString
     , module Data.Text
-    , module Data.Profunctor
     , module Pipes.Parse
     , module Pipes.Group
     ) where
 
     , module Pipes.Parse
     , module Pipes.Group
     ) where
 
-import Control.Applicative ((<*)) 
+import Control.Applicative ((<*))
 import Control.Monad (liftM, join)
 import Control.Monad.Trans.State.Strict (StateT(..), modify)
 import qualified Data.Text as T
 import Control.Monad (liftM, join)
 import Control.Monad.Trans.State.Strict (StateT(..), modify)
 import qualified Data.Text as T
@@ -107,10 +101,9 @@ import qualified Data.Text.Lazy as TL
 import Data.ByteString (ByteString)
 import Data.Functor.Constant (Constant(Constant, getConstant))
 import Data.Functor.Identity (Identity)
 import Data.ByteString (ByteString)
 import Data.Functor.Constant (Constant(Constant, getConstant))
 import Data.Functor.Identity (Identity)
-import Data.Profunctor (Profunctor)
-import qualified Data.Profunctor
+
 import Pipes
 import Pipes
-import Pipes.Group (concats, intercalates, FreeT(..), FreeF(..))
+import Pipes.Group (folds, maps, concats, intercalates, FreeT(..), FreeF(..))
 import qualified Pipes.Group as PG
 import qualified Pipes.Parse as PP
 import Pipes.Parse (Parser)
 import qualified Pipes.Group as PG
 import qualified Pipes.Parse as PP
 import Pipes.Parse (Parser)
@@ -149,30 +142,30 @@ import Prelude hiding (
     writeFile )
 
 {- $intro
     writeFile )
 
 {- $intro
-    This package provides @pipes@ utilities for /text streams/ or /character streams/, 
-    realized as streams of 'Text' chunks. The individual chunks are uniformly /strict/, 
-    and thus you will generally want @Data.Text@ in scope.  But the type 
-    @Producer Text m r@ ,as we are using it, is a sort of /pipes/ equivalent of the lazy @Text@ type. 
-    
-    This particular module provides many functions equivalent in one way or another to 
-    the pure functions in 
-    <https://hackage.haskell.org/package/text-1.1.0.0/docs/Data-Text-Lazy.html Data.Text.Lazy>. 
-    They transform, divide, group and fold text streams. Though @Producer Text m r@ 
-    is the type of \'effectful Text\', the functions in this module are \'pure\' 
+    This package provides @pipes@ utilities for /text streams/ or /character streams/,
+    realized as streams of 'Text' chunks. The individual chunks are uniformly /strict/,
+    and thus you will generally want @Data.Text@ in scope.  But the type
+    @Producer Text m r@ ,as we are using it, is a sort of /pipes/ equivalent of the lazy @Text@ type.
+
+    This particular module provides many functions equivalent in one way or another to
+    the pure functions in
+    <https://hackage.haskell.org/package/text-1.1.0.0/docs/Data-Text-Lazy.html Data.Text.Lazy>.
+    They transform, divide, group and fold text streams. Though @Producer Text m r@
+    is the type of \'effectful Text\', the functions in this module are \'pure\'
     in the sense that they are uniformly monad-independent.
     in the sense that they are uniformly monad-independent.
-    Simple /IO/ operations are defined in @Pipes.Text.IO@ -- as lazy IO @Text@ 
-    operations are in @Data.Text.Lazy.IO@. Inter-operation with @ByteString@ 
-    is provided in @Pipes.Text.Encoding@, which parallels @Data.Text.Lazy.Encoding@. 
-
-    The Text type exported by @Data.Text.Lazy@ is basically that of a lazy list of 
-    strict Text: the implementation is arranged so that the individual strict 'Text' 
-    chunks are kept to a reasonable size; the user is not aware of the divisions 
-    between the connected 'Text' chunks. 
+    Simple /IO/ operations are defined in @Pipes.Text.IO@ -- as lazy IO @Text@
+    operations are in @Data.Text.Lazy.IO@. Inter-operation with @ByteString@
+    is provided in @Pipes.Text.Encoding@, which parallels @Data.Text.Lazy.Encoding@.
+
+    The Text type exported by @Data.Text.Lazy@ is basically that of a lazy list of
+    strict Text: the implementation is arranged so that the individual strict 'Text'
+    chunks are kept to a reasonable size; the user is not aware of the divisions
+    between the connected 'Text' chunks.
     So also here: the functions in this module are designed to operate on streams that
     are insensitive to text boundaries. This means that they may freely split
     So also here: the functions in this module are designed to operate on streams that
     are insensitive to text boundaries. This means that they may freely split
-    text into smaller texts and /discard empty texts/.  The objective, though, is 
-    that they should /never concatenate texts/ in order to provide strict upper 
-    bounds on memory usage.  
+    text into smaller texts and /discard empty texts/.  The objective, though, is
+    that they should /never concatenate texts/ in order to provide strict upper
+    bounds on memory usage.
 
     For example, to stream only the first three lines of 'stdin' to 'stdout' you
     might write:
 
     For example, to stream only the first three lines of 'stdin' to 'stdout' you
     might write:
@@ -181,10 +174,10 @@ import Prelude hiding (
 > import qualified Pipes.Text as Text
 > import qualified Pipes.Text.IO as Text
 > import Pipes.Group (takes')
 > import qualified Pipes.Text as Text
 > import qualified Pipes.Text.IO as Text
 > import Pipes.Group (takes')
-> import Lens.Family 
-> 
+> import Lens.Family
+>
 > main = runEffect $ takeLines 3 Text.stdin >-> Text.stdout
 > main = runEffect $ takeLines 3 Text.stdin >-> Text.stdout
->   where 
+>   where
 >     takeLines n = Text.unlines . takes' n . view Text.lines
 
     The above program will never bring more than one chunk of text (~ 32 KB) into
 >     takeLines n = Text.unlines . takes' n . view Text.lines
 
     The above program will never bring more than one chunk of text (~ 32 KB) into
@@ -192,49 +185,49 @@ import Prelude hiding (
 
 -}
 {- $lenses
 
 -}
 {- $lenses
-    As this example shows, one superficial difference from @Data.Text.Lazy@ 
-    is that many of the operations, like 'lines', are \'lensified\'; this has a 
-    number of advantages (where it is possible); in particular it facilitates their 
-    use with 'Parser's of Text (in the general <http://hackage.haskell.org/package/pipes-parse-3.0.1/docs/Pipes-Parse-Tutorial.html pipes-parse> 
+    As this example shows, one superficial difference from @Data.Text.Lazy@
+    is that many of the operations, like 'lines', are \'lensified\'; this has a
+    number of advantages (where it is possible); in particular it facilitates their
+    use with 'Parser's of Text (in the general <http://hackage.haskell.org/package/pipes-parse-3.0.1/docs/Pipes-Parse-Tutorial.html pipes-parse>
     sense.) The disadvantage, famously, is that the messages you get for type errors can be
     a little alarming. The remarks that follow in this section are for non-lens adepts.
 
     sense.) The disadvantage, famously, is that the messages you get for type errors can be
     a little alarming. The remarks that follow in this section are for non-lens adepts.
 
-    Each lens exported here, e.g. 'lines', 'chunksOf' or 'splitAt', reduces to the 
+    Each lens exported here, e.g. 'lines', 'chunksOf' or 'splitAt', reduces to the
     intuitively corresponding function when used with @view@ or @(^.)@. Instead of
     writing:
     intuitively corresponding function when used with @view@ or @(^.)@. Instead of
     writing:
-    
+
     > splitAt 17 producer
     > splitAt 17 producer
-    
-    as we would with the Prelude or Text functions, we write 
-    
+
+    as we would with the Prelude or Text functions, we write
+
     > view (splitAt 17) producer
     > view (splitAt 17) producer
-    
+
     or equivalently
     or equivalently
-    
+
     > producer ^. splitAt 17
 
     > producer ^. splitAt 17
 
-    This may seem a little indirect, but note that many equivalents of 
-    @Text -> Text@ functions are exported here as 'Pipe's. Here too we recover the intuitively 
+    This may seem a little indirect, but note that many equivalents of
+    @Text -> Text@ functions are exported here as 'Pipe's. Here too we recover the intuitively
     corresponding functions by prefixing them with @(>->)@. Thus something like
 
     corresponding functions by prefixing them with @(>->)@. Thus something like
 
->  stripLines = Text.unlines . Group.maps (>-> Text.stripStart) . view Text.lines 
+>  stripLines = Text.unlines . Group.maps (>-> Text.stripStart) . view Text.lines
 
 
-    would drop the leading white space from each line. 
+    would drop the leading white space from each line.
 
 
-    The lenses in this library are marked as /improper/; this just means that 
-    they don't admit all the operations of an ideal lens, but only /getting/ and /focusing/. 
-    Just for this reason, though, the magnificent complexities of the lens libraries 
-    are a distraction. The lens combinators to keep in mind, the ones that make sense for 
-    our lenses, are @view@ \/ @(^.)@), @over@ \/ @(%~)@ , and @zoom@. 
+    The lenses in this library are marked as /improper/; this just means that
+    they don't admit all the operations of an ideal lens, but only /getting/ and /focusing/.
+    Just for this reason, though, the magnificent complexities of the lens libraries
+    are a distraction. The lens combinators to keep in mind, the ones that make sense for
+    our lenses, are @view@ \/ @(^.)@), @over@ \/ @(%~)@ , and @zoom@.
 
     One need only keep in mind that if @l@ is a @Lens' a b@, then:
 
 -}
 {- $view
 
     One need only keep in mind that if @l@ is a @Lens' a b@, then:
 
 -}
 {- $view
-    @view l@ is a function @a -> b@ . Thus @view l a@ (also written @a ^. l@ ) 
-    is the corresponding @b@; as was said above, this function will be exactly the 
-    function you think it is, given its name. Thus to uppercase the first n characters 
-    of a Producer, leaving the rest the same, we could write: 
+    @view l@ is a function @a -> b@ . Thus @view l a@ (also written @a ^. l@ )
+    is the corresponding @b@; as was said above, this function will be exactly the
+    function you think it is, given its name. Thus to uppercase the first n characters
+    of a Producer, leaving the rest the same, we could write:
 
 
     > upper n p = do p' <- p ^. Text.splitAt n >-> Text.toUpper
 
 
     > upper n p = do p' <- p ^. Text.splitAt n >-> Text.toUpper
@@ -242,11 +235,11 @@ import Prelude hiding (
 -}
 {- $over
     @over l@ is a function @(b -> b) -> a -> a@.  Thus, given a function that modifies
 -}
 {- $over
     @over l@ is a function @(b -> b) -> a -> a@.  Thus, given a function that modifies
-    @b@s, the lens lets us modify an @a@ by applying @f :: b -> b@ to 
-    the @b@ that we can \"see\" through the lens. So  @over l f :: a -> a@ 
-    (it can also be written @l %~ f@). 
-    For any particular @a@, then, @over l f a@ or @(l %~ f) a@ is a revised @a@. 
-    So above we might have written things like these: 
+    @b@s, the lens lets us modify an @a@ by applying @f :: b -> b@ to
+    the @b@ that we can \"see\" through the lens. So  @over l f :: a -> a@
+    (it can also be written @l %~ f@).
+    For any particular @a@, then, @over l f a@ or @(l %~ f) a@ is a revised @a@.
+    So above we might have written things like these:
 
     > stripLines = Text.lines %~ maps (>-> Text.stripStart)
     > stripLines = over Text.lines (maps (>-> Text.stripStart))
 
     > stripLines = Text.lines %~ maps (>-> Text.stripStart)
     > stripLines = over Text.lines (maps (>-> Text.stripStart))
@@ -254,23 +247,23 @@ import Prelude hiding (
 
 -}
 {- $zoom
 
 -}
 {- $zoom
-    @zoom l@, finally, is a function from a @Parser b m r@  
-    to a @Parser a m r@ (or more generally a @StateT (Producer b m x) m r@).  
+    @zoom l@, finally, is a function from a @Parser b m r@
+    to a @Parser a m r@ (or more generally a @StateT (Producer b m x) m r@).
     Its use is easiest to see with an decoding lens like 'utf8', which
     \"sees\" a Text producer hidden inside a ByteString producer:
     Its use is easiest to see with an decoding lens like 'utf8', which
     \"sees\" a Text producer hidden inside a ByteString producer:
-    @drawChar@ is a Text parser, returning a @Maybe Char@, @zoom utf8 drawChar@ is 
-    a /ByteString/ parser, returning a @Maybe Char@. @drawAll@ is a Parser that returns 
-    a list of everything produced from a Producer, leaving only the return value; it would 
+    @drawChar@ is a Text parser, returning a @Maybe Char@, @zoom utf8 drawChar@ is
+    a /ByteString/ parser, returning a @Maybe Char@. @drawAll@ is a Parser that returns
+    a list of everything produced from a Producer, leaving only the return value; it would
     usually be unreasonable to use it. But @zoom (splitAt 17) drawAll@
     returns a list of Text chunks containing the first seventeen Chars, and returns the rest of
     usually be unreasonable to use it. But @zoom (splitAt 17) drawAll@
     returns a list of Text chunks containing the first seventeen Chars, and returns the rest of
-    the Text Producer for further parsing. Suppose that we want, inexplicably, to 
-    modify the casing of a Text Producer according to any instruction it might 
+    the Text Producer for further parsing. Suppose that we want, inexplicably, to
+    modify the casing of a Text Producer according to any instruction it might
     contain at the start. Then we might write something like this:
 
 >     obey :: Monad m => Producer Text m b -> Producer Text m b
 >     obey p = do (ts, p') <- lift $ runStateT (zoom (Text.splitAt 7) drawAll) p
 >                 let seven = T.concat ts
     contain at the start. Then we might write something like this:
 
 >     obey :: Monad m => Producer Text m b -> Producer Text m b
 >     obey p = do (ts, p') <- lift $ runStateT (zoom (Text.splitAt 7) drawAll) p
 >                 let seven = T.concat ts
->                 case T.toUpper seven of 
+>                 case T.toUpper seven of
 >                    "TOUPPER" -> p' >-> Text.toUpper
 >                    "TOLOWER" -> p' >-> Text.toLower
 >                    _         -> do yield seven
 >                    "TOUPPER" -> p' >-> Text.toUpper
 >                    "TOLOWER" -> p' >-> Text.toLower
 >                    _         -> do yield seven
@@ -281,31 +274,31 @@ import Prelude hiding (
 > >>> runEffect $ obey doc >-> Text.stdout
 > THIS DOCUMENT.
 
 > >>> runEffect $ obey doc >-> Text.stdout
 > THIS DOCUMENT.
 
-    The purpose of exporting lenses is the mental economy achieved with this three-way 
-    applicability. That one expression, e.g. @lines@ or @splitAt 17@ can have these 
-    three uses is no more surprising than that a pipe can act as a function modifying 
+    The purpose of exporting lenses is the mental economy achieved with this three-way
+    applicability. That one expression, e.g. @lines@ or @splitAt 17@ can have these
+    three uses is no more surprising than that a pipe can act as a function modifying
     the output of a producer, namely by using @>->@ to its left: @producer >-> pipe@
     the output of a producer, namely by using @>->@ to its left: @producer >-> pipe@
-    -- but can /also/ modify the inputs to a consumer by using @>->@ to its right: 
+    -- but can /also/ modify the inputs to a consumer by using @>->@ to its right:
     @pipe >-> consumer@
 
     @pipe >-> consumer@
 
-    The three functions, @view@ \/ @(^.)@, @over@ \/ @(%~)@ and @zoom@ are supplied by 
-    both <http://hackage.haskell.org/package/lens lens> and 
+    The three functions, @view@ \/ @(^.)@, @over@ \/ @(%~)@ and @zoom@ are supplied by
+    both <http://hackage.haskell.org/package/lens lens> and
     <http://hackage.haskell.org/package/lens-family lens-family> The use of 'zoom' is explained
     <http://hackage.haskell.org/package/lens-family lens-family> The use of 'zoom' is explained
-    in <http://hackage.haskell.org/package/pipes-parse-3.0.1/docs/Pipes-Parse-Tutorial.html Pipes.Parse.Tutorial> 
-    and to some extent in the @Pipes.Text.Encoding@ module here. 
+    in <http://hackage.haskell.org/package/pipes-parse-3.0.1/docs/Pipes-Parse-Tutorial.html Pipes.Parse.Tutorial>
+    and to some extent in the @Pipes.Text.Encoding@ module here.
 
 -}
 {- $special
 
 -}
 {- $special
-    These simple 'lines' examples reveal a more important difference from @Data.Text.Lazy@ . 
-    This is in the types that are most closely associated with our central text type, 
+    These simple 'lines' examples reveal a more important difference from @Data.Text.Lazy@ .
+    This is in the types that are most closely associated with our central text type,
     @Producer Text m r@.  In @Data.Text@ and @Data.Text.Lazy@ we find functions like
 
 >   splitAt  :: Int -> Text -> (Text, Text)
 >   lines    ::        Text -> [Text]
 >   chunksOf :: Int -> Text -> [Text]
 
     @Producer Text m r@.  In @Data.Text@ and @Data.Text.Lazy@ we find functions like
 
 >   splitAt  :: Int -> Text -> (Text, Text)
 >   lines    ::        Text -> [Text]
 >   chunksOf :: Int -> Text -> [Text]
 
-    which relate a Text with a pair of Texts or a list of Texts. 
-    The corresponding functions here (taking account of \'lensification\') are 
+    which relate a Text with a pair of Texts or a list of Texts.
+    The corresponding functions here (taking account of \'lensification\') are
 
 >   view . splitAt  :: (Monad m, Integral n) => n -> Producer Text m r -> Producer Text m (Producer Text m r)
 >   view lines      :: Monad m               =>      Producer Text m r -> FreeT (Producer Text m) m r
 
 >   view . splitAt  :: (Monad m, Integral n) => n -> Producer Text m r -> Producer Text m (Producer Text m r)
 >   view lines      :: Monad m               =>      Producer Text m r -> FreeT (Producer Text m) m r
@@ -325,12 +318,12 @@ import Prelude hiding (
 
     which brings one closer to the types of the similar functions in @Data.Text.Lazy@
 
 
     which brings one closer to the types of the similar functions in @Data.Text.Lazy@
 
-    In the type @Producer Text m (Producer Text m r)@ the second 
-    element of the \'pair\' of effectful Texts cannot simply be retrieved 
-    with something like 'snd'. This is an \'effectful\' pair, and one must work 
+    In the type @Producer Text m (Producer Text m r)@ the second
+    element of the \'pair\' of effectful Texts cannot simply be retrieved
+    with something like 'snd'. This is an \'effectful\' pair, and one must work
     through the effects of the first element to arrive at the second Text stream, even
     through the effects of the first element to arrive at the second Text stream, even
-    if you are proposing to throw the Text in the first element away. 
-    Note that we use Control.Monad.join to fuse the pair back together, since it specializes to 
+    if you are proposing to throw the Text in the first element away.
+    Note that we use Control.Monad.join to fuse the pair back together, since it specializes to
 
 >    join :: Monad m => Producer Text m (Producer m r) -> Producer m r
 
 
 >    join :: Monad m => Producer Text m (Producer m r) -> Producer m r
 
@@ -346,12 +339,12 @@ import Prelude hiding (
 > (Text, (Text, (Text, (Text, r))))
 > ...
 
 > (Text, (Text, (Text, (Text, r))))
 > ...
 
-    (We might also have identified the sum of those types with @Free ((,) Text) r@ 
-    -- or, more absurdly, @FreeT ((,) Text) Identity r@.) 
-    
-    Similarly, our type @Texts m r@, or @FreeT (Text m) m r@ -- in fact called 
+    (We might also have identified the sum of those types with @Free ((,) Text) r@
+    -- or, more absurdly, @FreeT ((,) Text) Identity r@.)
+
+    Similarly, our type @Texts m r@, or @FreeT (Text m) m r@ -- in fact called
     @FreeT (Producer Text m) m r@ here -- encompasses all the members of the sequence:
     @FreeT (Producer Text m) m r@ here -- encompasses all the members of the sequence:
-   
+
 > m r
 > Text m r
 > Text m (Text m r)
 > m r
 > Text m r
 > Text m (Text m r)
@@ -361,43 +354,43 @@ import Prelude hiding (
 
     We might have used a more specialized type in place of @FreeT (Producer a m) m r@,
     or indeed of @FreeT (Producer Text m) m r@, but it is clear that the correct
 
     We might have used a more specialized type in place of @FreeT (Producer a m) m r@,
     or indeed of @FreeT (Producer Text m) m r@, but it is clear that the correct
-    result type of 'lines' will be isomorphic to @FreeT (Producer Text m) m r@ . 
+    result type of 'lines' will be isomorphic to @FreeT (Producer Text m) m r@ .
 
 
-    One might think that 
+    One might think that
 
 >   lines :: Monad m => Lens' (Producer Text m r) (FreeT (Producer Text m) m r)
 >   view . lines :: Monad m => Producer Text m r -> FreeT (Producer Text m) m r
 
     should really have the type
 
 >   lines :: Monad m => Lens' (Producer Text m r) (FreeT (Producer Text m) m r)
 >   view . lines :: Monad m => Producer Text m r -> FreeT (Producer Text m) m r
 
     should really have the type
-    
+
 >   lines :: Monad m => Pipe Text Text m r
 
 >   lines :: Monad m => Pipe Text Text m r
 
-    as e.g. 'toUpper' does. But this would spoil the control we are 
-    attempting to maintain over the size of chunks. It is in fact just 
+    as e.g. 'toUpper' does. But this would spoil the control we are
+    attempting to maintain over the size of chunks. It is in fact just
     as unreasonable to want such a pipe as to want
 
     as unreasonable to want such a pipe as to want
 
-> Data.Text.Lazy.lines :: Text -> Text 
+> Data.Text.Lazy.lines :: Text -> Text
 
 
-    to 'rechunk' the strict Text chunks inside the lazy Text to respect 
-    line boundaries. In fact we have 
+    to 'rechunk' the strict Text chunks inside the lazy Text to respect
+    line boundaries. In fact we have
 
 > Data.Text.Lazy.lines :: Text -> [Text]
 > Prelude.lines :: String -> [String]
 
     where the elements of the list are themselves lazy Texts or Strings; the use
 
 > Data.Text.Lazy.lines :: Text -> [Text]
 > Prelude.lines :: String -> [String]
 
     where the elements of the list are themselves lazy Texts or Strings; the use
-    of @FreeT (Producer Text m) m r@ is simply the 'effectful' version of this. 
-    
+    of @FreeT (Producer Text m) m r@ is simply the 'effectful' version of this.
+
     The @Pipes.Group@ module, which can generally be imported without qualification,
     provides many functions for working with things of type @FreeT (Producer a m) m r@.
     In particular it conveniently exports the constructors for @FreeT@ and the associated
     The @Pipes.Group@ module, which can generally be imported without qualification,
     provides many functions for working with things of type @FreeT (Producer a m) m r@.
     In particular it conveniently exports the constructors for @FreeT@ and the associated
-    @FreeF@ type -- a fancy form of @Either@, namely 
-    
+    @FreeF@ type -- a fancy form of @Either@, namely
+
 > data FreeF f a b = Pure a | Free (f b)
 
 > data FreeF f a b = Pure a | Free (f b)
 
-    for pattern-matching. Consider the implementation of the 'words' function, or 
-    of the part of the lens that takes us to the words; it is compact but exhibits many 
+    for pattern-matching. Consider the implementation of the 'words' function, or
+    of the part of the lens that takes us to the words; it is compact but exhibits many
     of the points under discussion, including explicit handling of the @FreeT@ and @FreeF@
     of the points under discussion, including explicit handling of the @FreeT@ and @FreeF@
-    constuctors.  Keep in mind that 
+    constuctors.  Keep in mind that
 
 >  newtype FreeT f m a  = FreeT (m (FreeF f a (FreeT f m a)))
 >  next :: Monad m => Producer a m r -> m (Either r (a, Producer a m r))
 
 >  newtype FreeT f m a  = FreeT (m (FreeF f a (FreeT f m a)))
 >  next :: Monad m => Producer a m r -> m (Either r (a, Producer a m r))
@@ -414,12 +407,12 @@ import Prelude hiding (
 >         p'' <- view (break isSpace)    -- When we apply 'break isSpace', we get a Producer that returns a Producer;
 >                     (yield txt >> p')  --   so here we yield everything up to the next space, and get the rest back.
 >         return (words p'')             -- We then carry on with the rest, which is likely to begin with space.
 >         p'' <- view (break isSpace)    -- When we apply 'break isSpace', we get a Producer that returns a Producer;
 >                     (yield txt >> p')  --   so here we yield everything up to the next space, and get the rest back.
 >         return (words p'')             -- We then carry on with the rest, which is likely to begin with space.
-  
+
 -}
 
 -- | Convert a lazy 'TL.Text' into a 'Producer' of strict 'Text's
 fromLazy :: (Monad m) => TL.Text -> Producer' Text m ()
 -}
 
 -- | Convert a lazy 'TL.Text' into a 'Producer' of strict 'Text's
 fromLazy :: (Monad m) => TL.Text -> Producer' Text m ()
-fromLazy  = TL.foldrChunks (\e a -> yield e >> a) (return ()) 
+fromLazy  = TL.foldrChunks (\e a -> yield e >> a) (return ())
 {-# INLINE fromLazy #-}
 
 (^.) :: a -> ((b -> Constant b b) -> (a -> Constant b a)) -> b
 {-# INLINE fromLazy #-}
 
 (^.) :: a -> ((b -> Constant b b) -> (a -> Constant b a)) -> b
@@ -436,44 +429,7 @@ concatMap
 concatMap f = P.map (T.concatMap f)
 {-# INLINABLE concatMap #-}
 
 concatMap f = P.map (T.concatMap f)
 {-# INLINABLE concatMap #-}
 
--- | Transform a Pipe of 'String's into one of 'Text' chunks
-pack :: Monad m => Pipe String Text m r
-pack = P.map T.pack
-{-# INLINEABLE pack #-}
-
--- | Transform a Pipes of 'Text' chunks into one of 'String's
-unpack :: Monad m => Pipe Text String m r
-unpack = for cat (\t -> yield (T.unpack t))
-{-# INLINEABLE unpack #-}
-
--- | @toCaseFold@, @toLower@, @toUpper@ and @stripStart@ are standard 'Text' utilities, 
--- here acting as 'Text' pipes, rather as they would  on a lazy text
-toCaseFold :: Monad m => Pipe Text Text m r
-toCaseFold = P.map T.toCaseFold
-{-# INLINEABLE toCaseFold #-}
-
--- | lowercase incoming 'Text'
-toLower :: Monad m => Pipe Text Text m r
-toLower = P.map T.toLower
-{-# INLINEABLE toLower #-}
-
--- | uppercase incoming 'Text'
-toUpper :: Monad m => Pipe Text Text m r
-toUpper = P.map T.toUpper
-{-# INLINEABLE toUpper #-}
-
--- | Remove leading white space from an incoming succession of 'Text's 
-stripStart :: Monad m => Pipe Text Text m r
-stripStart = do
-    chunk <- await
-    let text = T.stripStart chunk
-    if T.null text
-      then stripStart
-      else do yield text 
-              cat
-{-# INLINEABLE stripStart #-}
-
--- | @(take n)@ only allows @n@ individual characters to pass; 
+-- | @(take n)@ only allows @n@ individual characters to pass;
 --  contrast @Pipes.Prelude.take@ which would let @n@ chunks pass.
 take :: (Monad m, Integral a) => a -> Pipe Text Text m ()
 take n0 = go n0 where
 --  contrast @Pipes.Prelude.take@ which would let @n@ chunks pass.
 take :: (Monad m, Integral a) => a -> Pipe Text Text m ()
 take n0 = go n0 where
@@ -489,21 +445,6 @@ take n0 = go n0 where
                     go (n - len)
 {-# INLINABLE take #-}
 
                     go (n - len)
 {-# INLINABLE take #-}
 
--- | @(drop n)@ drops the first @n@ characters
-drop :: (Monad m, Integral a) => a -> Pipe Text Text m r
-drop n0 = go n0 where
-    go n
-        | n <= 0    = cat
-        | otherwise = do
-            txt <- await
-            let len = fromIntegral (T.length txt)
-            if (len >= n)
-                then do
-                    yield (T.drop (fromIntegral n) txt)
-                    cat
-                else go (n - len)
-{-# INLINABLE drop #-}
-
 -- | Take characters until they fail the predicate
 takeWhile :: (Monad m) => (Char -> Bool) -> Pipe Text Text m ()
 takeWhile predicate = go
 -- | Take characters until they fail the predicate
 takeWhile :: (Monad m) => (Char -> Bool) -> Pipe Text Text m ()
 takeWhile predicate = go
@@ -518,18 +459,6 @@ takeWhile predicate = go
             else yield prefix
 {-# INLINABLE takeWhile #-}
 
             else yield prefix
 {-# INLINABLE takeWhile #-}
 
--- | Drop characters until they fail the predicate
-dropWhile :: (Monad m) => (Char -> Bool) -> Pipe Text Text m r
-dropWhile predicate = go where
-    go = do
-        txt <- await
-        case T.findIndex (not . predicate) txt of
-            Nothing -> go
-            Just i -> do
-                yield (T.drop i txt)
-                cat
-{-# INLINABLE dropWhile #-}
-
 -- | Only allows 'Char's to pass if they satisfy the predicate
 filter :: (Monad m) => (Char -> Bool) -> Pipe Text Text m r
 filter predicate = P.map (T.filter predicate)
 -- | Only allows 'Char's to pass if they satisfy the predicate
 filter :: (Monad m) => (Char -> Bool) -> Pipe Text Text m r
 filter predicate = P.map (T.filter predicate)
@@ -551,6 +480,33 @@ scan step begin = do
         go c'
 {-# INLINABLE scan #-}
 
         go c'
 {-# INLINABLE scan #-}
 
+-- | @toCaseFold@, @toLower@, @toUpper@ and @stripStart@ are standard 'Text' utilities,
+-- here acting as 'Text' pipes, rather as they would  on a lazy text
+toCaseFold :: Monad m => Pipe Text Text m r
+toCaseFold = P.map T.toCaseFold
+{-# INLINEABLE toCaseFold #-}
+
+-- | lowercase incoming 'Text'
+toLower :: Monad m => Pipe Text Text m r
+toLower = P.map T.toLower
+{-# INLINEABLE toLower #-}
+
+-- | uppercase incoming 'Text'
+toUpper :: Monad m => Pipe Text Text m r
+toUpper = P.map T.toUpper
+{-# INLINEABLE toUpper #-}
+
+-- | Remove leading white space from an incoming succession of 'Text's
+stripStart :: Monad m => Pipe Text Text m r
+stripStart = do
+    chunk <- await
+    let text = T.stripStart chunk
+    if T.null text
+      then stripStart
+      else do yield text
+              cat
+{-# INLINEABLE stripStart #-}
+
 {-| Fold a pure 'Producer' of strict 'Text's into a lazy
     'TL.Text'
 -}
 {-| Fold a pure 'Producer' of strict 'Text's into a lazy
     'TL.Text'
 -}
@@ -576,6 +532,7 @@ foldChars
 foldChars step begin done = P.fold (T.foldl' step) begin done
 {-# INLINABLE foldChars #-}
 
 foldChars step begin done = P.fold (T.foldl' step) begin done
 {-# INLINABLE foldChars #-}
 
+
 -- | Retrieve the first 'Char'
 head :: (Monad m) => Producer Text m () -> m (Maybe Char)
 head = go
 -- | Retrieve the first 'Char'
 head :: (Monad m) => Producer Text m () -> m (Maybe Char)
 head = go
@@ -656,18 +613,13 @@ find predicate p = head (p >-> filter predicate)
 index
     :: (Monad m, Integral a)
     => a-> Producer Text m () -> m (Maybe Char)
 index
     :: (Monad m, Integral a)
     => a-> Producer Text m () -> m (Maybe Char)
-index n p = head (p >-> drop n)
+index n p = head (drop n p)
 {-# INLINABLE index #-}
 
 
 {-# INLINABLE index #-}
 
 
--- | Store a tally of how many segments match the given 'Text'
-count :: (Monad m, Num n) => Text -> Producer Text m () -> m n
-count c p = P.fold (+) 0 id (p >-> P.map (fromIntegral . T.count c))
-{-# INLINABLE count #-}
-
 
 -- | Consume the first character from a stream of 'Text'
 
 -- | Consume the first character from a stream of 'Text'
--- 
+--
 -- 'next' either fails with a 'Left' if the 'Producer' has no more characters or
 -- succeeds with a 'Right' providing the next character and the remainder of the
 -- 'Producer'.
 -- 'next' either fails with a 'Left' if the 'Producer' has no more characters or
 -- succeeds with a 'Right' providing the next character and the remainder of the
 -- 'Producer'.
@@ -743,7 +695,6 @@ isEndOfChars = do
         Just _-> False )
 {-# INLINABLE isEndOfChars #-}
 
         Just _-> False )
 {-# INLINABLE isEndOfChars #-}
 
-
 -- | Splits a 'Producer' after the given number of characters
 splitAt
     :: (Monad m, Integral n)
 -- | Splits a 'Producer' after the given number of characters
 splitAt
     :: (Monad m, Integral n)
@@ -822,11 +773,11 @@ groupBy equals k p0 = fmap join (k ((go p0))) where
             Left   r       -> return (return r)
             Right (txt, p') -> case T.uncons txt of
                 Nothing      -> go p'
             Left   r       -> return (return r)
             Right (txt, p') -> case T.uncons txt of
                 Nothing      -> go p'
-                Just (c, _) -> (yield txt >> p') ^. span (equals c) 
+                Just (c, _) -> (yield txt >> p') ^. span (equals c)
 {-# INLINABLE groupBy #-}
 
 -- | Improper lens that splits after the first succession of identical 'Char' s
 {-# INLINABLE groupBy #-}
 
 -- | Improper lens that splits after the first succession of identical 'Char' s
-group :: Monad m 
+group :: Monad m
       => Lens' (Producer Text m r)
                (Producer Text m (Producer Text m r))
 group = groupBy (==)
       => Lens' (Producer Text m r)
                (Producer Text m (Producer Text m r))
 group = groupBy (==)
@@ -834,9 +785,9 @@ group = groupBy (==)
 
 {-| Improper lens that splits a 'Producer' after the first word
 
 
 {-| Improper lens that splits a 'Producer' after the first word
 
-    Unlike 'words', this does not drop leading whitespace 
+    Unlike 'words', this does not drop leading whitespace
 -}
 -}
-word :: (Monad m) 
+word :: (Monad m)
      => Lens' (Producer Text m r)
               (Producer Text m (Producer Text m r))
 word k p0 = fmap join (k (to p0))
      => Lens' (Producer Text m r)
               (Producer Text m (Producer Text m r))
 word k p0 = fmap join (k (to p0))
@@ -846,14 +797,27 @@ word k p0 = fmap join (k (to p0))
         p'^.break isSpace
 {-# INLINABLE word #-}
 
         p'^.break isSpace
 {-# INLINABLE word #-}
 
-
-line :: (Monad m) 
+line :: (Monad m)
      => Lens' (Producer Text m r)
               (Producer Text m (Producer Text m r))
 line = break (== '\n')
      => Lens' (Producer Text m r)
               (Producer Text m (Producer Text m r))
 line = break (== '\n')
-
 {-# INLINABLE line #-}
 
 {-# INLINABLE line #-}
 
+-- | @(drop n)@ drops the first @n@ characters
+drop :: (Monad m, Integral n)
+     => n -> Producer Text m r -> Producer Text m r
+drop n p = do
+    p' <- lift $ runEffect (for (p ^. splitAt n) discard)
+    p'
+{-# INLINABLE drop #-}
+
+-- | Drop characters until they fail the predicate
+dropWhile :: (Monad m)
+    => (Char -> Bool) -> Producer Text m r -> Producer Text m r
+dropWhile predicate p = do
+    p' <- lift $ runEffect (for (p ^. span predicate) discard)
+    p'
+{-# INLINABLE dropWhile #-}
 
 -- | Intersperse a 'Char' in between the characters of stream of 'Text'
 intersperse
 
 -- | Intersperse a 'Char' in between the characters of stream of 'Text'
 intersperse
@@ -878,28 +842,36 @@ intersperse c = go0
 {-# INLINABLE intersperse #-}
 
 
 {-# INLINABLE intersperse #-}
 
 
--- | Improper isomorphism between a 'Producer' of 'ByteString's and 'Word8's
-packChars :: Monad m => Iso'_ (Producer Char m x) (Producer Text m x)
-packChars = Data.Profunctor.dimap to (fmap from)
-  where
-    -- to :: Monad m => Producer Char m x -> Producer Text m x
-    to p = PG.folds step id done (p^.PG.chunksOf defaultChunkSize)
+-- | Improper lens from unpacked 'Word8's to packaged 'ByteString's
+pack :: Monad m => Lens' (Producer Char m r) (Producer Text m r)
+pack k p = fmap _unpack (k (_pack p))
+{-# INLINABLE pack #-}
+
+-- | Improper lens from packed 'ByteString's to unpacked 'Word8's
+unpack :: Monad m => Lens' (Producer Text m r) (Producer Char m r)
+unpack k p = fmap _pack (k (_unpack p))
+{-# INLINABLE unpack #-}
 
 
-    step diffAs c = diffAs . (c:)
+_pack :: Monad m => Producer Char m r -> Producer Text m r
+_pack p = folds step id done (p^.PG.chunksOf defaultChunkSize)
+  where
+    step diffAs w8 = diffAs . (w8:)
 
     done diffAs = T.pack (diffAs [])
 
     done diffAs = T.pack (diffAs [])
+{-# INLINABLE _pack #-}
 
 
-    -- from :: Monad m => Producer Text m x -> Producer Char m x
-    from p = for p (each . T.unpack)
-{-# INLINABLE packChars #-}
+_unpack :: Monad m => Producer Text m r -> Producer Char m r
+_unpack p = for p (each . T.unpack)
+{-# INLINABLE _unpack #-}
 
 defaultChunkSize :: Int
 defaultChunkSize = 16384 - (sizeOf (undefined :: Int) `shiftL` 1)
 
 
 defaultChunkSize :: Int
 defaultChunkSize = 16384 - (sizeOf (undefined :: Int) `shiftL` 1)
 
+
 -- | Split a text stream into 'FreeT'-delimited text streams of fixed size
 chunksOf
     :: (Monad m, Integral n)
 -- | Split a text stream into 'FreeT'-delimited text streams of fixed size
 chunksOf
     :: (Monad m, Integral n)
-    => n -> Lens' (Producer Text m r) 
+    => n -> Lens' (Producer Text m r)
                   (FreeT (Producer Text m) m r)
 chunksOf n k p0 = fmap concats (k (FreeT (go p0)))
   where
                   (FreeT (Producer Text m) m r)
 chunksOf n k p0 = fmap concats (k (FreeT (go p0)))
   where
@@ -908,7 +880,7 @@ chunksOf n k p0 = fmap concats (k (FreeT (go p0)))
         return $ case x of
             Left   r       -> Pure r
             Right (txt, p') -> Free $ do
         return $ case x of
             Left   r       -> Pure r
             Right (txt, p') -> Free $ do
-                p'' <- (yield txt >> p') ^. splitAt n 
+                p'' <- (yield txt >> p') ^. splitAt n
                 return $ FreeT (go p'')
 {-# INLINABLE chunksOf #-}
 
                 return $ FreeT (go p'')
 {-# INLINABLE chunksOf #-}
 
@@ -919,8 +891,7 @@ chunksOf n k p0 = fmap concats (k (FreeT (go p0)))
 splitsWith
     :: (Monad m)
     => (Char -> Bool)
 splitsWith
     :: (Monad m)
     => (Char -> Bool)
-    -> Producer Text m r
-    -> FreeT (Producer Text m) m r
+    -> Producer Text m r -> FreeT (Producer Text m) m r
 splitsWith predicate p0 = FreeT (go0 p0)
   where
     go0 p = do
 splitsWith predicate p0 = FreeT (go0 p0)
   where
     go0 p = do
@@ -938,7 +909,7 @@ splitsWith predicate p0 = FreeT (go0 p0)
         return $ case x of
             Left   r      -> Pure r
             Right (_, p') -> Free $ do
         return $ case x of
             Left   r      -> Pure r
             Right (_, p') -> Free $ do
-                    p'' <- p' ^. span (not . predicate) 
+                    p'' <- p' ^. span (not . predicate)
                     return $ FreeT (go1 p'')
 {-# INLINABLE splitsWith #-}
 
                     return $ FreeT (go1 p'')
 {-# INLINABLE splitsWith #-}
 
@@ -948,7 +919,7 @@ splits :: (Monad m)
       -> Lens' (Producer Text m r)
                (FreeT (Producer Text m) m r)
 splits c k p =
       -> Lens' (Producer Text m r)
                (FreeT (Producer Text m) m r)
 splits c k p =
-          fmap (PG.intercalates (yield (T.singleton c))) (k (splitsWith (c ==) p))
+          fmap (intercalates (yield (T.singleton c))) (k (splitsWith (c ==) p))
 {-# INLINABLE splits #-}
 
 {-| Isomorphism between a stream of 'Text' and groups of equivalent 'Char's , using the
 {-# INLINABLE splits #-}
 
 {-| Isomorphism between a stream of 'Text' and groups of equivalent 'Char's , using the
@@ -958,7 +929,7 @@ groupsBy
     :: Monad m
     => (Char -> Char -> Bool)
     -> Lens' (Producer Text m x) (FreeT (Producer Text m) m x)
     :: Monad m
     => (Char -> Char -> Bool)
     -> Lens' (Producer Text m x) (FreeT (Producer Text m) m x)
-groupsBy equals k p0 = fmap concats (k (FreeT (go p0))) where 
+groupsBy equals k p0 = fmap concats (k (FreeT (go p0))) where
   go p = do x <- next p
             case x of Left   r       -> return (Pure r)
                       Right (bs, p') -> case T.uncons bs of
   go p = do x <- next p
             case x of Left   r       -> return (Pure r)
                       Right (bs, p') -> case T.uncons bs of
@@ -981,10 +952,19 @@ groups = groupsBy (==)
 {-| Split a text stream into 'FreeT'-delimited lines
 -}
 lines
 {-| Split a text stream into 'FreeT'-delimited lines
 -}
 lines
-    :: (Monad m) => Iso'_ (Producer Text m r)  (FreeT (Producer Text m) m r)
-lines = Data.Profunctor.dimap _lines (fmap _unlines)
-  where
-  _lines p0 = FreeT (go0 p0) 
+    :: (Monad m) => Lens' (Producer Text m r)  (FreeT (Producer Text m) m r)
+lines k p = fmap _unlines (k (_lines p))
+{-# INLINABLE lines #-}
+
+unlines
+    :: Monad m
+    => Lens' (FreeT (Producer Text m) m r) (Producer Text m r)
+unlines k p = fmap _lines (k (_unlines p))
+{-# INLINABLE unlines #-}
+
+_lines :: Monad m
+             => Producer Text m r -> FreeT (Producer Text m) m r
+_lines p0 = FreeT (go0 p0)
     where
       go0 p = do
               x <- next p
     where
       go0 p = do
               x <- next p
@@ -1001,29 +981,40 @@ lines = Data.Profunctor.dimap _lines (fmap _unlines)
                   case x of
                       Left   r      -> return $ Pure r
                       Right (_, p'') -> go0 p''
                   case x of
                       Left   r      -> return $ Pure r
                       Right (_, p'') -> go0 p''
-  -- _unlines
-  --     :: Monad m
-  --      => FreeT (Producer Text m) m x -> Producer Text m x
-  _unlines = concats . PG.maps (<* yield (T.singleton '\n'))
+{-# INLINABLE _lines #-}
 
 
-{-# INLINABLE lines #-}
+_unlines :: Monad m
+         => FreeT (Producer Text m) m r -> Producer Text m r
+_unlines = concats . maps (<* yield (T.singleton '\n'))
+{-# INLINABLE _unlines #-}
 
 
-
--- | Split a text stream into 'FreeT'-delimited words
+-- | Split a text stream into 'FreeT'-delimited words. Note that 
+-- roundtripping with e.g. @over words id@ eliminates extra space
+-- characters as with @Prelude.unwords . Prelude.words@
 words
 words
-    :: (Monad m) => Iso'_ (Producer Text m r) (FreeT (Producer Text m) m r)
-words = Data.Profunctor.dimap go (fmap _unwords)
-  where
-    go p = FreeT $ do
-        x <- next (p >-> dropWhile isSpace)
+    :: (Monad m) => Lens' (Producer Text m r) (FreeT (Producer Text m) m r)
+words k p = fmap _unwords (k (_words p))
+{-# INLINABLE words #-}
+
+unwords
+    :: Monad m
+    => Lens' (FreeT (Producer Text m) m r) (Producer Text m r)
+unwords k p = fmap _words (k (_unwords p))
+{-# INLINABLE unwords #-}
+
+_words :: (Monad m) => Producer Text m r -> FreeT (Producer Text m) m r
+_words p = FreeT $ do
+        x <- next (dropWhile isSpace p)
         return $ case x of
             Left   r       -> Pure r
             Right (bs, p') -> Free $ do
                 p'' <-  (yield bs >> p') ^. break isSpace
         return $ case x of
             Left   r       -> Pure r
             Right (bs, p') -> Free $ do
                 p'' <-  (yield bs >> p') ^. break isSpace
-                return (go p'')
-    _unwords = PG.intercalates (yield $ T.singleton ' ')
-    
-{-# INLINABLE words #-}
+                return (_words p'')
+{-# INLINABLE _words #-}
+
+_unwords :: (Monad m) => FreeT (Producer Text m) m r -> Producer Text m r
+_unwords = intercalates (yield $ T.singleton ' ')
+{-# INLINABLE _unwords #-}
 
 
 {-| 'intercalate' concatenates the 'FreeT'-delimited text streams after
 
 
 {-| 'intercalate' concatenates the 'FreeT'-delimited text streams after
@@ -1031,9 +1022,7 @@ words = Data.Profunctor.dimap go (fmap _unwords)
 -}
 intercalate
     :: (Monad m)
 -}
 intercalate
     :: (Monad m)
-    => Producer Text m ()
-    -> FreeT (Producer Text m) m r
-    -> Producer Text m r
+    => Producer Text m () -> FreeT (Producer Text m) m r -> Producer Text m r
 intercalate p0 = go0
   where
     go0 f = do
 intercalate p0 = go0
   where
     go0 f = do
@@ -1053,35 +1042,13 @@ intercalate p0 = go0
                 go1 f'
 {-# INLINABLE intercalate #-}
 
                 go1 f'
 {-# INLINABLE intercalate #-}
 
-{-| Join 'FreeT'-delimited lines into a text stream
--}
-unlines
-    :: (Monad m) => FreeT (Producer Text m) m r -> Producer Text m r
-unlines = go
-  where
-    go f = do
-        x <- lift (runFreeT f)
-        case x of
-            Pure r -> return r
-            Free p -> do
-                f' <- p
-                yield $ T.singleton '\n'
-                go f'
-{-# INLINABLE unlines #-}
-
-{-| Join 'FreeT'-delimited words into a text stream
--}
-unwords
-    :: (Monad m) => FreeT (Producer Text m) m r -> Producer Text m r
-unwords = intercalate (yield $ T.singleton ' ')
-{-# INLINABLE unwords #-}
 
 
 {- $reexports
 
 
 {- $reexports
-    
+
     @Data.Text@ re-exports the 'Text' type.
 
     @Data.Text@ re-exports the 'Text' type.
 
-    @Pipes.Parse@ re-exports 'input', 'concat', 'FreeT' (the type) and the 'Parse' synonym. 
+    @Pipes.Parse@ re-exports 'input', 'concat', 'FreeT' (the type) and the 'Parse' synonym.
 -}
 
 
 -}
 
 
index 991000f57dcaeef6621b284665c8cbb2dd6293a2..e00cd430e20771d1ebda6b6c0f2de8bf8a280175 100644 (file)
@@ -41,13 +41,10 @@ module Pipes.Text.Encoding
     , decodeAscii
     , encodeIso8859_1
     , decodeIso8859_1
     , decodeAscii
     , encodeIso8859_1
     , decodeIso8859_1
-    , Lens'_
-    , Iso'_
     ) 
     where
 
 import Data.Functor.Constant (Constant(..))
     ) 
     where
 
 import Data.Functor.Constant (Constant(..))
-import Data.Profunctor (Profunctor)
 import Data.Char (ord)
 import Data.ByteString as B 
 import Data.ByteString (ByteString)
 import Data.Char (ord)
 import Data.ByteString as B 
 import Data.ByteString (ByteString)
@@ -61,16 +58,15 @@ import Control.Monad (join)
 import Data.Word (Word8)
 import Pipes
 
 import Data.Word (Word8)
 import Pipes
 
-type Lens'_ a b = forall f . Functor f => (b -> f b) -> (a -> f a)
-type Iso'_ a b = forall f p . (Functor f, Profunctor p) => p b (f b) -> p a (f a)
+type Lens' a b = forall f . Functor f => (b -> f b) -> (a -> f a)
 
 {- $lenses
     The 'Codec' type is a simple specializion of 
 
 {- $lenses
     The 'Codec' type is a simple specializion of 
-    the @Lens'_@ type synonymn used by the standard lens libraries, 
+    the @Lens'@ type synonymn used by the standard lens libraries, 
     <http://hackage.haskell.org/package/lens lens> and 
     <http://hackage.haskell.org/package/lens-family lens-family>. That type, 
     
     <http://hackage.haskell.org/package/lens lens> and 
     <http://hackage.haskell.org/package/lens-family lens-family>. That type, 
     
->   type Lens'_ a b = forall f . Functor f => (b -> f b) -> (a -> f a)
+>   type Lens' a b = forall f . Functor f => (b -> f b) -> (a -> f a)
 
     is just an alias for a Prelude type. Thus you use any particular codec with
     the @view@ / @(^.)@ , @zoom@ and @over@ functions from either of those libraries;
 
     is just an alias for a Prelude type. Thus you use any particular codec with
     the @view@ / @(^.)@ , @zoom@ and @over@ functions from either of those libraries;
@@ -81,7 +77,7 @@ type Iso'_ a b = forall f p . (Functor f, Profunctor p) => p b (f b) -> p a (f a
 type Codec
     =  forall m r
     .  Monad m
 type Codec
     =  forall m r
     .  Monad m
-    => Lens'_ (Producer ByteString m r)
+    => Lens' (Producer ByteString m r)
              (Producer Text m (Producer ByteString m r))
 
 {- | 'decode' is just the ordinary @view@ or @(^.)@ of the lens libraries;
              (Producer Text m (Producer ByteString m r))
 
 {- | 'decode' is just the ordinary @view@ or @(^.)@ of the lens libraries;
index d768a804bcf290e2492d5ba87a40dbc1b64ed2c4..ed4b3d9d43d781e88005d4cc5431420af3de24a8 100644 (file)
--- a/changelog
+++ b/changelog
@@ -1,3 +1,9 @@
+# Version 0.0.0.12
+
+* Opposing lenses for `lines` and `unlines` and `words` and `unwords`. 
+  Brought closer in line with `pipes-bytestring` again. Removed `count`, which
+  was wrong. Scrapped `Iso` and the `profunctors` dependency. 
+
 # Version 0.0.0.11
 
 * Updated to use streaming-commons in place of text-stream-decoding.
 # Version 0.0.0.11
 
 * Updated to use streaming-commons in place of text-stream-decoding.
index 0b5db9523127803bb9668788f6d9854a7517ac62..041f2c7462331afbc7289f8b74f2f8fe909a8f19 100644 (file)
@@ -38,7 +38,6 @@ library
                        bytestring        >= 0.9.2.1 && < 0.11,
                        text              >= 0.11.2  && < 1.2 ,
                        streaming-commons >= 0.1     && < 0.2 ,  
                        bytestring        >= 0.9.2.1 && < 0.11,
                        text              >= 0.11.2  && < 1.2 ,
                        streaming-commons >= 0.1     && < 0.2 ,  
-                       profunctors       >= 3.1.1   && < 4.1 ,
                        pipes             >= 4.0     && < 4.2 ,
                        pipes-group       >= 1.0.0   && < 1.1 ,
                        pipes-parse       >= 3.0.0   && < 3.1 ,
                        pipes             >= 4.0     && < 4.2 ,
                        pipes-group       >= 1.0.0   && < 1.1 ,
                        pipes-parse       >= 3.0.0   && < 3.1 ,